La science-fiction met en garde contre le développement d’une technologie de lecture mentale sans cadre approprié pour la contrôler. Il faut en tenir compte.
On pense généralement que l’avenir de l’humanité sera un jour menacé par la montée de l’intelligence artificielle (IA), peut-être incarnée par des robots malveillants. Pourtant, alors que nous entrons dans la troisième décennie du millénaire, ce n’est pas la singularité que nous devons craindre, mais plutôt un ennemi beaucoup plus âgé: nous-mêmes.
Nous développons rapidement une technologie de lecture mentale littérale sans aucun cadre pour la contrôler. Imaginez un instant que les êtres humains aient évolué pour pouvoir lire dans les pensées des autres. Comment cela aurait-il pu se passer pour nous?
Pour répondre à cette question, pensez à vos propres dialogues internes. Il est sûr de supposer que chacun de nous a eu des pensées qui choqueraient même (ou surtout) ceux qui sont les plus proches de nous. Comment ceux qui pourraient ne pas nous souhaiter du bien auraient-ils réagi en étant capables d’entendre de temps en temps quelles rancunes émotionnelles nous traversent la tête? Auraient-ils eu le jugement de les laisser passer, les reconnaissant comme de simples éclairs d’émotion? Ou certains auraient-ils répondu de manière opportuniste, profitant de pensées que nous ne souhaiterions pas autrement trahir?
L’évolution ne nous a pas permis de lire les esprits parce que ce pouvoir aurait pu mettre fin à notre existence en tant qu’espèce. Au lieu de cela, alors que nos anciens ancêtres s’organisaient en groupes de protection, la plupart d’entre nous ont appris ce qui pouvait être dit et ce qu’il valait mieux ne pas dire. Au fil du temps, cela est devenu un trait humain très évolué qui a permis aux sociétés de se former, aux villes de s’élever et même à des centaines de personnes stressées d’être coincées dans un tube volant, généralement sans attaquer leurs compagnons de siège. Il fait partie intégrante de ce que nous appelons maintenant l’égalisation ou l’intelligence émotionnelle.
Et pourtant, la technologie commence à menacer cette nécessaire adaptation évolutive de manière fondamentale.
La première étape a eu lieu dans les médias sociaux. Facebook a souligné cette trajectoire, lorsque la manipulation russe de la plateforme a affecté l’élection présidentielle des États-Unis en 2016. Et Twitter, qui permet à un utilisateur de lancer une pensée ou une émotion passagère qui pourrait ensuite être partagée avec des millions de personnes, amplifie cette tendance. Imaginez comment les dirigeants nord-coréens ont eu du mal à interpréter le tweet de feu nucléaire et de fureur du président Donald Trump. » S’agit-il d’une menace réelle d’un nouveau et erratique leader américain, ou simplement d’une expiration du moment, d’un flash mental sans filtre qui serait le mieux ignoré? À l’époque du monde bipolaire des superpuissances, la ligne téléphonique emblématique américano-soviétique a été installée pour clarifier les intentions de chaque partie, de peur que, par un malentendu, le monde ne disparaisse sous un nuage de champignons nucléaires.
Aujourd’hui, dans notre monde multipolaire et à menaces asymétriques beaucoup plus compliqué, les médias sociaux offrent à tous ceux qui veulent un mégaphone géant et non édité. Les médias sociaux sont devenus un outil qui peut saper la démocratie; et pourtant ce n’est qu’un jeu d’enfant par rapport à ce qui se profile maintenant sur notre chemin.
Des entreprises allant de start-ups à des conglomérats multinationaux ont récemment annoncé des innovations surprenantes qui permettent la lecture de l’esprit. La société Elon Musk, Neuralink, cherche à obtenir l’approbation des essais humains d’un appareil implanté dans le cerveau des utilisateurs pour lire dans leurs pensées. Nissan a développé la technologie Brain-to-Vehicle qui permet à une voiture de lire les instructions dans l’esprit du conducteur. Facebook a financé des scientifiques qui utilisent les ondes cérébrales pour décoder la parole. Un article récent de la revue scientifique Nature explique comment l’IA peut créer de la parole en analysant les signaux du cerveau. Des chercheurs de l’Université Columbia ont développé une technologie qui peut analyser l’activité cérébrale pour déterminer ce que veut un utilisateur et exprimer ces désirs via un synthétiseur.
De toute évidence, ces types de progrès peuvent offrir de réels avantages, notamment en aidant les personnes souffrant de paralysie ou de troubles neurologiques. Les premiers exemples de neuroprothèses, tels que les implants cochléaires, qui permettent à une personne sourde d’entendre, ou des dispositifs prometteurs qui pourraient permettre aux aveugles de voir, sont déjà utilisés.
Mais il existe également des applications potentielles plus sombres, telles que permettre aux annonceurs de micro-affiner leurs offres aux désirs inexprimés des individus, ou aux employeurs d’espionner leurs travailleurs, ou à la police de surveiller à grande échelle les intentions criminelles des citoyens, à la manière de Londres les résidents d’aujourd’hui sont suivis sur CCTV. Un avertissement précoce est ToTok, l’une des applications de médias sociaux les plus téléchargées, que, a-t-on récemment révélé, le gouvernement des Émirats arabes unis utilisait pour espionner les utilisateurs. Et que se passe-t-il si des appareils de lecture mentale sont piratés? Il est difficile d’imaginer un domaine de la confidentialité des données plus pertinent que celui qui existe dans le cerveau humain.
Musk croit que les interfaces cérébrales seront nécessaires pour que les humains suivent l’IA. Cela nous ramène à l’histoire d’horreur de science-fiction de Philip K. Dick The Minority Report »(la base du film de 2002). Considérez les innombrables implications éthiques, juridiques et d’ordre épineux d’un policier qui arrête un crime avant qu’il n’ait lieu parce qu’il ou elle pourrait évaluer «l’intention probable d’un individu en lisant leurs ondes cérébrales. Quand un crime est-il commis? Quand la pensée a-t-elle lieu? Quand commencent les actions qui manifestent la pensée en réalité? Quand l’arme est pointée? Lorsque le doigt de détente se resserre?
L’un des principaux défis de l’innovation technologique est qu’il faut généralement beaucoup de temps à la société pour rattraper son retard, comprendre les implications plus larges de la façon dont la nouvelle technologie peut être utilisée et utilisée à mauvais escient, et fournir des cadres juridiques et réglementaires appropriés pour réglementer sa conduite.
Au cours de la deuxième décennie de ce millénaire, les médias sociaux sont passés d’un outil pour se connecter à une plate-forme dotée d’un immense pouvoir de répandre des mensonges et de manipuler les élections. La société cherche maintenant à tirer le meilleur parti de cette innovation, tout en atténuant son potentiel d’abus. Peut-être, avant même d’avoir compris cela, la troisième décennie du millénaire nous confrontera à des défis technologiques bien plus conséquents.