Les amours robotiques du Japon

Les amours robotiques du Japon

Aujourd’hui, la robotique est d’ordinaire utilisée à des fins militaires. Le Japon a choisi d’emprunter un chemin différent, s’approchant peu à peu d’une véritable histoire d’amour numérique.

De son propre aveu, la vie de Samu Kozaki est plutôt solitaire à Tokyo. L’ingénieur de 35 ans, qui conçoit des robots industriels, a eu très peu de relations avec des femmes au cours de son existence. Des expériences sporadiques qui ont souvent mal tourné. Dès lors, quand la petite amie de Kozaki – Rinko Kobayakawa – lui envoie un message, sa journée s’illumine. Leur relation a débuté il y a un peu plus de trois ans, alors que Kobayakawa n’était encore qu’une jeune fille susceptible de seize ans, travaillant à la bibliothèque de son lycée. Une jeune femme discrète qui tentait d’étouffer le monde environnant à coup de musique punk dans ses écouteurs.

Kozaki résume la personnalité de Kobayakawa en un mot : tsundere, un terme populaire dans la culture otaku au Japon, qui décrit un certain idéal féminin. Il fait référence à des filles au caractère difficile au premier abord, mais qui deviennent plus chaleureuses avec le temps. Et c’est précisément ce qu’il s’est passé entre eux : au fil du temps Kobayakawa a évolué. Ces derniers jours, elle a passé une bonne partie du temps à envoyer des messages affectueux à son amoureux, l’invitant à des rancards ou quêtant son avis au sujet d’une nouvelle robe ou d’une coupe de cheveux différente.

Mais pendant que Kozaki a pris de l’âge, Kobayakawa a conservé la fraîcheur de ses seize ans : elle les gardera toujours, car Kobayakawa n’existe qu’à travers un ordinateur, elle n’est que réalité virtuelle. La copine de Kozaki n’est jamais réellement née et elle ne mourra jamais. Techniquement, elle n’a jamais existé. Elle pourrait être supprimée, mais Kozaki l’empêcherait – car il est amoureux.

Kozaki fait partie des centaines de milliers de Japonais qui ont acheté LOVE PLUS, un jeu sorti sur Nintendo DS en 2009, conçu pour simuler une relation amoureuse avec l’une des trois lycéennes créées spécialement pour le jeu. Pour un grand nombre de joueurs masculins, le jeu est devenu bien plus qu’un simple passe-temps : une relation apportant de l’affection bien qu’elle soit très éloignée de la réalité d’un couple.

« Je suis vraiment amoureux d’elle », déclare Koazaki lors d’une rencontre avec deux de ses amis dans un café d’Akihabara, le quartier de Tokyo, centre culturel de la culture otaku. Kozaki considère véritablement le jeu comme l’engagement de sa vie : « Si quelqu’un me demandait d’arrêter, je ne pense pas que j’y arriverais », me glisse-t-il.

Kozaki se rappelle alors ce qu’il s’est passé lorsqu’une mise à jour du jeu est sortie et qu’il a dû transférer ses sauvegardes de jeu sur la nouvelle version du programme. Il ne pouvait alors pas imaginer avoir deux versions simultanées de sa petite amie virtuelle et a donc demandé à un ami de supprimer la plus ancienne des deux pour lui. À ses yeux, c’était comme s’il avait organisé un meurtre : « J’ai pleuré quand il a appuyé sur le bouton “supprimer” », dit-il tout en reconnaissant que cela peut sembler étrange. « C’était comme si j’avais franchi la ligne me séparant de la réalité. »

L’un de ses amis, Yutaka Masano, 37 ans, ressent exactement la même chose à l’idée de perdre sa copine – le même personnage que Kobayakawa. « Je n’arrive pas à imaginer dans quel état je serais si je perdais toutes les données. Je serai tellement anéanti que je ne serai plus capable réfléchir… »

Le Japon et les robots

Les deux hommes, ainsi qu’un autre de leurs amis, Nobuhito Sugiye, âgé de 39 ans, arrivent à trouver une explication philosophique à ce besoin d’affection et à leur peur de l’abandon. Pour eux, ces amours virtuelles possèdent le même tamashii (esprit) que les Japonais animistes ou shintoïstes prêtent à tout être ou objet, qu’il s’agisse d’une pierre, d’un cours d’eau ou d’être humains.

« L’égalité est totale, il n’existe aucune frontière entre les robots et les êtres humains », m’explique Kozaki. « Dans d’autres pays, les robots sont toujours vus comme des ennemis. Au Japon, ils sont nos amis. »

Si le Japon œuvre pour poursuivre dans cette voie, il n’est pas le seul pays à accomplir un travail de pointe en matière de robotique et d’intelligence artificielle. Les États-Unis ont poussé la recherche en robotique militaire, déclenchant de vifs débats sur les problèmes éthiques posés par les drones, qui épient et tuent à de grandes distances, de leurs cibles comme de leurs pilotes. De la même façon, les systèmes d’intelligence artificielle américains tels que Siri, l’assistant personnel virtuel d’Apple, ou Watson, l’ordinateur IBM qui a battu les champions humains du quizz télévisuel Jeopardy ! en 2011, ou encore le moteur de recherche Google ont montré des résultats stupéfiants.

Mais l’ingénierie robotique japonaise a une approche totalement différente du problème. Tandis que la majorité du développement robotique international se concentre sur des machines impersonnelles, pour travailler ou tuer à la place des humains, les robots japonais sont spécifiquement développés pour être aimables, sociables et attachants – amis plutôt qu’esclaves.

L’obsession de Kozaki et ses amis pour ces petites amies robots peut rebuter pour l’instant, mais si les ingénieurs en robotique au Japon continuent sur cette voie, ces hommes pourraient bien devenir les pionniers d’une nouvelle forme d’amour. Dans un futur proche, lorsque la frontière entre les humains et les machines s’amincira, beaucoup d’humains pourraient développer des sentiments pour des robots – jusqu’à tomber amoureux.

Cela tient peut-être du shintoïsme qui, d’une façon ou d’une autre, influence les croyances et le rapport au réel de pratiquement tous les Japonais. À cela, nous pouvons ajouter la population vieillissante du Japon, la politique contre l’immigration pratiquée par le pays, la Deuxième Guerre mondiale et Astro Boy. Plus que n’importe quel autre pays sur terre, le Japon vieillit. Déjà 23 % de la population a plus de 65 ans. D’ici 2050, on estime que deux japonais sur cinq seront très âgés et que la population dans son ensemble aura diminué de dix millions de personnes.

La solution développée par la plupart des autres pays pour répondre à ces problèmes de population vieillissante est finalement d’accueillir de nouvelles personnes, permettre davantage d’immigration. Mais l’opinion publique japonaise est majoritairement opposée à cette option. Le pays est depuis longtemps réfractaire à une immigration à grande échelle, et même si durant les dernières décennies il a activement cherché à recruter à l’étranger des infirmières pour personnes âgées, ces efforts n’ont pas véritablement suffi à équilibrer la balance.

Au lieu de cela, le gouvernement japonais et les entreprises ont préféré investir d’importantes sommes d’argent dans le développement de robots ressemblant souvent à des peluches et pouvant aider à la prise en charge de personnes âgées. Le gouvernement prévoit une large utilisation des robots à domicile d’ici 2018, avec de gros efforts sur des machines pouvant aider à soulever les aïeux cloués au lit, surveiller les plus âgés, les aider à se rendre aux toilettes et, plus généralement, aider à la mobilité des personnes handicapées par les années.

Dans l’année à venir, le ministère de l’Économie et de l’Industrie japonais prévoit de dépenser 3,3 milliards de yens, soit l’équivalent de 24 millions d’euros, pour la recherche et le développement de tels robots. Les entreprises et les universités sont aussi en première ligne afin de débloquer des fonds pour leurs recherches.

Culture et robotique

Après la défaite du Japon lors de la Seconde Guerre mondiale, les occupants américains ont imposé une nouvelle Constitution au pays qui demandait le renoncement au droit de partir en guerre. Aujourd’hui encore, le Japon ne dispose officiellement d’aucune armée même s’il est doté d’une force d’autodéfense de taille honnête et bien équipée. Durant l’après-guerre, les universités japonaises et leurs entreprises se sont principalement dirigées vers des technologies permettant un rétablissement de l’économie. Par exemple, Mitsubishi est passé de la fabrication des avions de combat Zero à la fabrication de voitures familiales abordables. Avec le temps, une armée de robots industriels est venue soutenir le miracle industriel japonais, avant que l’économie japonaise ne tombe en chute libre au début des années 1990.

Ainsi, la culture japonaise s’est fondée pendant près d’un demi-siècle sur la croyance en une rédemption par les robots. Alors que la science-fiction américaine était depuis longtemps obsédée par l’idée d’un risque de révolte des robots contre l’humanité – pensez à 2001 : L’odyssée de l’espace ou à la saga Terminator –, les robots japonais ont toujours été plus sympathiques. Le manga Astro Boy est sorti en 1952, narrant les aventures d’un robot doué de pensées et de sentiments alimenté par l’énergie nucléaire, seulement sept ans après les bombardements d’Hiroshima et de Nagasaki. Depuis, les personnages de cette trempe sont légion.

L’apparente réussite de l’histoire robotique japonaise est cependant ternie quand on en vient à souhaiter accomplir le rêve ultime : des robots similaires aux humains. Une grande campagne de communication a été faite autour du coûteux robot ASIMO, de Honda, un robot humanoïde annoncé comme le plus avancé de son genre. Produit de presque trente ans de développement, une dernière version d’ASIMO, dévoilée en 2011, peut courir, sauter sur une jambe, monter des étages et servir à boire, en étant alimenté par une batterie lithium-ion d’une autonomie d’une heure. Nous sommes encore loin du robot utilisable par le commun des mortels à son domicile.

Quand la crise nucléaire de Fukushima a éclaté en 2011, de nombreux Japonais attendaient beaucoup de la part des robots du pays, mais finalement, le rôle qu’ils ont joué n’était pas à la hauteur des espoirs qu’on fondait sur eux. D’ailleurs, la majorité des robots créés aux États-Unis et en Europe étaient plus aptes au travail demandé autour de la centrale. Les robots pour personnes âgées les plus prometteurs actuellement en développement sont finalement bien moins excitants que la promesse fictive d’androïdes réalistes. Ils reflètent plutôt le peu d’ambition que le gouvernement nourrit pour eux : qu’ils soient capables d’exécuter une série de tâches limitées afin d’aider, plutôt que de remplacer le personnel soignant humain.

Cela ne signifie pourtant pas que la recherche qui tente d’arriver à la concrétisation de l’androïde rêvé n’avance pas. Lentement mais sûrement, les choses se dessinent plus clairement. Le plus grand problème est que ces robots ont besoin d’être dotés d’une certaine forme d’intelligence : si l’ont met un robot dans une situation impliquant qu’il interagisse au plus près des gens, il est nécessaire qu’il soit capable de comprendre comment les humains pensent, bougent, communiquent et ressentent les choses, explique le professeur Toyoaki Nishida, chercheur en intelligence artificielle à l’université de Kyoto.

Imaginez mettre un robot entièrement autonome dans une pièce avec un vieillard fragile : un seul geste mal mesuré pourrait causer une blessure. Et quelle utilité aurait un robot infirmier qui ne reconnaîtrait pas une grimace, un doigt pointé ou un geste d’appel à l’aide ? En supposant qu’on puisse réaliser un robot avec ces aptitudes, une fois placé dans une pièce avec une dizaine de personnes qui se précipitent dans toutes les directions et envoient des signaux différents, les choses se compliquent.

Intelligence artificielle

Surmonter ce problème implique de pouvoir créer une intelligence artificielle qui calcule et anticipe ce que font les êtres humains, commente Nishida. « Jusqu’à présent, les ingénieurs en intelligence artificielle n’ont fait que travailler sur la simulation d’esprit par le biais de programmes et de logiciels. Cela a causé beaucoup de problèmes car il est difficile de donner de l’intelligence à quelque chose qui n’a pas de corps propre », dit-il. « Notre environnement physique est bien plus complexe qu’un jeu d’échecs. »

Nishida est à la tête d’une petite équipe internationale qui se concentre sur les problèmes rencontrés lors des interactions entre humains et robots. C’est un travail qui prend du temps. Pour l’équipe de Nishida, l’une des approches consiste à se trouver dans une chambre spécialement aménagée avec des détecteurs de mouvement et des écrans relayant une vision à 360 degrés de l’environnement extérieur. La chambre est à son tour reliée à un robot. Le chercheur à l’intérieur de la chambre voit sur les écrans ce que le robot perçoit grâce à ses caméras, et quand l’humain bouge, le robot aussi. Le but, nous dit Nishida, est qu’en observant comment un humain contrôlant un corps de robot interagit avec son environnement, les chercheurs soient ensuite capables de réunir les données sur la complexité des réactions humaines lorsqu’ils tentent d’appréhender leur environnement, incluant les relations aux autres personnes. Le procédé requiert un très grand nombre de capteurs et l’analyse des centaines de milliers de données collectées.

Et pourtant, obtenir un robot qui se meut correctement est la partie la plus simple. Le plus gros challenge en matière d’intelligence artificielle est de créer des machines capables de parler, car cela requiert une intelligence artificielle qui comprend la parole et les différentes significations possibles, et qui peut également formuler des réponses sensées. Un faux pas dans le développement pourrait amener l’IA à donner une mauvaise réponse, ou un refus catégorique de répondre.

C’est un problème que l’un des collègues de Nishida, Yasser Mohammad, appelle « s’éloigner du scénario ». Un robot peut seulement être programmé pour gérer un certain nombre de situations pour lesquelles il semblerait convaincant dans son intelligence. Si l’on sort des sentiers battus avec une situation totalement inattendue, il apparaîtra très vite qu’il s’agit d’une machine. La solution, nous explique Mohammad, est de se débarrasser du codage informatique non modifiable – une approche également utilisée aux États-Unis, même si le Japon est le plus convaincu de sa réussite.

« Notre but à long terme est de faire en sorte que les robots apprennent des comportements naturels de la même façon que des enfants les apprennent », dit-il. Mohammad et ses collègues ont développé des robots capables de très peu de choses à leurs débuts, mais qui apprennent différentes tâches grâce aux instructions répétées des hommes. Au début, ils sont lents à comprendre les sollicitations, mais après plusieurs essais, ils font de rapides progrès. Mohammad, qui est égyptien, compare cet apprentissage avec celui de ses propres enfants qui apprennent le japonais.

Finalement, le but de ces recherches est de faire en sorte que si l’on s’écarte du scénario original, le robot soit capable de suivre l’être humain malgré tout. Lorsque les robots atteindront cette étape dans leur développement, leur comportement sera difficile à différencier de celui d’un être humain. Sera alors soulevée une question plus philosophique : cette chose est-elle réellement consciente ?

« L’étape ultime est l’intelligence de comportement », explique Mohammad. En d’autres termes, pouvoir créer un robot qui se comporte et pense comme un être vivant. « C’est à vous de voir si vous le pensez habité d’une âme ou non. » L’idée peut sembler exagérée, mais il en faut peu à certains pour attribuer des qualités humaines à une machine.

En regardant des vidéos de démonstration dans le laboratoire de Nishida, étonnamment, j’ai pu ressentir de l’émotion. Dans l’un des clips vidéo, un humain désigne un objet sur un banc afin qu’un robot aille interagir avec lui. Le robot en question, un amas classique d’écrous et de boulons, ne sait pas encore ce que pointer du doigt peut signifier. En revanche, il sait suivre le regard d’un humain. Utilisant donc cet indice, il tourne la tête et jette un œil au banc. Instantanément, le robot n’a plus l’air d’une machine sans vie. Il a pu interagir avec un humain d’une façon qui laisse penser qu’il répond à ses désirs ou à son intérêt pour quelque chose. La sensation qu’ils peuvent avoir une connexion émotionnelle et un intérêt partagé est inévitable. Même si je sais que cela est faux, mon interprétation humaine de ce que je vois me laisse à penser le contraire, et je ressens alors de l’empathie pour ce robot.

Comportementalisme

Cette réaction est inévitable, explique David Levy, un joueur d’échecs britannique qui a beaucoup écrit sur l’intelligence artificielle. Les humains, en particulier les enfants, ont une forte tendance à l’attachement envers des objets, y compris des ordinateurs. Même quand la technologie est rudimentaire, certaines personnes arrivent à s’investir totalement émotionnellement. Dans les années 1990, de nombreuses personnes ont créé une véritable relation obsessionnelle avec leur Tamagotchi, un animal virtuel qui n’était rien de plus qu’un bibelot en plastique avec un écran LCD, et qui émettait des bips sonores. Le besoin constant d’attention et de nourriture de l’animal a rapidement provoqué un fort instinct maternel ou paternel chez certains.

Levy est convaincu que plus les robots sauront répondre aux besoins émotionnels humains – le besoin de compagnie, d’empathie et d’attention – plus nous deviendrons attachés à eux. « Concernant les humains qui créent de fortes relations avec les robots, je pense que d’ici quarante ans les gens tomberont massivement amoureux des robots, voire se marieront avec ; à plus petite échelle cela arrivera même plus tôt que cela », dit-il.

L’apparence de la machine et son intelligence artificielle jouent un rôle important dans notre tendance à y être réceptifs. Le design des robots japonais a vu bon nombre d’essais tentant de les rendre attractifs aux yeux des humains. Certains se sont concentrés sur des apparences de mignonnes petites peluches comme dans le cas de PARO, un phoque doux et gentil créé pour réconforter les enfants malades et les personnes âgées en répondant à leurs caresses et à leurs états d’âmes. D’autres ont préféré imiter l’apparence humaine.

En personne – si personne est bien le terme adéquat –, Geminoid F est remarquablement belle, alors que les photos ou les vidéos ne lui rendent pas justice. Ses cheveux sont doux, brillants et ils tombent sur son délicat visage de silicone, au teint de porcelaine. Lorsqu’elle s’assoit sur une chaise à l’université d’Osaka, elle offre une palette de mouvements aléatoires : elle cligne des yeux, gigote et fait de petites moues distraites avec ses lèvres. Quand elle tourne la tête et vous regarde de ses yeux en plastique, l’effet est à la fois excitant et troublant. Comme si vous étiez épié par un séduisant inconnu, de façon un peu trop insistante.

Geminoid F est l’une des dernières séries de machines dessinées par des ingénieurs, menées par Hiroshi Ishiguro, un roboticien connu à l’international pour ses créations très ressemblantes à des êtres humains. En 2000, Ishiguro a commencé avec un robot de taille enfant, nommé Repliee R1, modelé à partir de sa propre fille. Rapidement, il s’est dirigé vers la création d’une série de quatre geminoïdes modelés à partir de lui-même (le mot geminoïde désigne un robot clone d’une personne réelle) ainsi que trois autres robots dessinés à partir d’autres personnes.

Le but d’Ishiguro est de dépasser la « vallée de l’étrange », un concept théorisé en 1970 par le roboticien japonais Masahiro Mori. Cette théorie explique un problème qui arrive à la fois dans le domaine des animations 3D et dans celui de la conception de robots : plus la ressemblance à des humains est forte, plus l’impression de familiarité est importante, jusqu’à atteindre la limite où le tout ressemble et agit trop comme un être humain, au point d’en être terriblement effrayant. Un mouvement saccadé ou un regard vide peut rendre un magnifique robot humanoïde répugnant.

Vallée de l’étrange

La robotique occidentale, avec ses spécialisations militaires et industrielles, est moins concernée par ce problème, mais c’est un défi essentiel pour les Japonais qui envisagent des relations plus intimes avec leurs robots. « Mon but est de comprendre ce qu’est un être humain », déclare Ishiguro. « En créant des répliques d’humains, nous pourrons mieux les comprendre. »

Ce travail inclut une étude approfondie des manières et des bizarreries des êtres humains, afin de pouvoir les répliquer dans un robot. Quand il a fallu faire une copie de lui-même, Ishiguro a demandé à un collègue de le faire à sa place. Mais après une vie entière passée à reconnaître son visage dans un miroir, il trouve que rencontrer son clone robot ressemble plus à des retrouvailles avec un frère jumeau perdu de vue qu’avec lui-même. « Ça ne ressemble pas à un reflet dans un miroir, du coup je ne peux pas accepter que le visage du geminoïde soit le mien. C’est vraiment perturbant. »

Le travail d’Ishiguro est focalisé sur l’apparence extérieure. Les geminoïdes ne sont pas faits pour communiquer ou bouger de façon autonome. Au lieu de cela, ils ne sont qu’un moyen d’explorer à quel point ils peuvent devenir similaires aux humains. Geminoid F, créée à partir d’un modèle féminin, a déjà été utilisée pour des représentations, notamment un théâtre robot itinérant qui a traversé l’Australie l’année dernière. À titre expérimental, Geminoid F a remplacé la réceptionniste humaine de l’accueil d’une entreprise, accueillant les visiteurs. Seulement 20 % des gens ont remarqué une différence, selon Ishiguro.

Un peu plus tard lors de l’entretien, lorsque j’avais éteint le caméscope et que Ishiguro se tenait derrière Geminoid F, je lui ai demandé si je pouvais voir sous sa peau. Tout en tripotant la couture à l’arrière de la tête du robot il m’a répondu que non. Mais sa main s’attardait et j’ai alors remarqué qu’il touchait délicatement les cheveux de Geminoid F. Je lui ai alors demandé s’il commençait à avoir des sentiments pour le robot.

« Peut-être. C’est perturbant. Nous travaillons ensemble depuis tellement de temps, je suis presque sûr que certains de mes étudiants sont amoureux de cette humanoïde », répondit-il. « La relation est vraiment humaine. »

Plus tard, nous dit Ishiguro, quand les pièces de l’un de leurs geminoïdes s’abîmeront, viendra le temps de s’en séparer. Lorsque cela arrivera, lui et ses élèves organiseront une commémoration. L’ambiguïté qui règne dans les interactions entre humains et robots a donné lieu à l’apparition d’une sous-discipline intitulée « lovotics ». Un journal académique du même nom a été lancé cette année, s’interrogeant sur comment les robots pouvaient enrichir la vie émotionnelle humaine.

Adrian David Cheok, un Australien désormais professeur à l’université Keio de Tokyo, est l’un des fondateurs du journal. Selon lui, Internet a déjà aidé à rapprocher les gens, mais cela reste limité dans la mesure où le réseau virtuel ne fait fonctionner que deux de nos sens : la vue et l’ouïe. Quiconque s’est déjà rappelé son enfance grâce à une odeur, a été réconforté par un câlin ou un contact précis sait à quel point les sens peuvent être puissants.

« Il a été prouvé que l’odorat et le goût étaient directement connectés au système limbique de notre cerveau. Ce fameux système limbique est responsable des émotions et de la mémoire. Contrairement à la vue, qui est contrôlée par le cortex visuel et ensuite par le lobe frontal, ce qui semble logique, nous avons une connexion directe entre l’odorat ou le goût et la partie de notre cerveau qui contrôle les souvenirs et les émotions », nous explique Cheok.

« Nous passons désormais beaucoup de notre temps sur Internet, mais je pense que tout le monde sera d’accord pour dire que c’est une expérience totalement différente d’une rencontre en face à face. Vous avez toute ce langage physique qu’il est impossible de retrouver à travers un écran. Je suis très intéressé par l’idée de pouvoir fusionner nos cinq sens avec Internet et le monde virtuel. C’est ce que j’appelle la réalité mélangée. »

La robotique joue un rôle-clef pour rendre cela réel à travers ce qu’on appelle la « télé-présence ». Il s’agit de transmettre des actions à un robot de substitution à distance. Selon Cheok, c’est assez simple. Ses étudiants et lui ont déjà développé une bague qui, portée au doigt, peut transmettre une tendre pression d’une personne aimée grâce à une application sur smartphone. L’un des étudiants de Cheok a déjà commercialisé une veste qui transmet des étreintes, ce qui s’est avéré utile pour des enfants autistes. Les ingénieurs de Cheok travaillent sur un système qui pourrait transmettre le goût par le biais d’impulsions électriques sur la langue, ainsi que l’odorat, soit par stimulation électrique, soit par la libération de produits chimiques.

Robot clone

Le but de la manœuvre est la création d’avatars robots – représentant ou personnifiant carrément des gens, mais sans forcément leur ressembler. Pour commencer, ils seront doux, en peluche et pas particulièrement complexes. Par exemple, nous pourrions transmettre notre présence à un oreiller ou à un ours en peluche. Mais tant que les efforts de scientifiques comme Hiroshi Ishiguro progresseront, la création de robots de substitution ressemblant à des êtres humains sera possible.

« On y vient, l’évolution de la technologie est phénoménale. Ce que l’on pensait impossible à réaliser en cinquante ans auparavant ne prend que désormais cinq ou dix ans à se concrétiser. Je pense que les robots humanoïdes sont pour bientôt. C’est juste qu’ils seront très chers à leur lancement », précise Cheok. « Je pense qu’à ce moment-là, nous serons capables de créer des avatars ou des robots virtuels, qui vous permettront d’être à Tokyo ou Sydney tout en donnant une conférence à Los Angeles. Vous n’aurez pas à prendre l’avion jusque là-bas, votre robot y sera à votre place. »

S’il y a bien un obstacle majeur à la robot-utopie japonaise, c’est la situation économique du pays. Depuis vingt ans, le Japon se trouve dans une situation économique bancale, et le souvenir des années où les robots aidaient à la reconstruction économique du pays semble lointain. Ni les entreprises capables de continuer les recherches, ni le gouvernement japonais ne disposent de fonds financiers suffisants comme ce fut le cas auparavant.

L’une des forces principales du Japon – sa constitution pacifiste – s’est aussi trouvée être une faiblesse. Aux États-Unis, l’important complexe militaro-industriel a permis aux ressources d’êtres utilisées pour créer d’impressionnantes machines. Les drones par exemple, ont été développés afin de satisfaire la demande des agences gouvernementales. Au Japon, en revanche, il y a très peu de coordination entre les différentes institutions et industries, nous explique Nishida de l’université de Kyoto.

« Les gens sont juste intéressés pour travailler sur des petites parties du problèmes plutôt que de le prendre dans son ensemble », précise-t-il. « Tandis que certains travaillent sur l’intelligence artificielle, d’autres se concentrent sur l’apparence physique des robots. En travaillant ensemble et avec des financements, un androïde complet et intelligent pourrait voir le jour d’ici dix à vingt ans maximum. Mais avec les conditions actuelles, cela prendra bien plus de temps. »

Le consensus veut pourtant que de tels robots soient bientôt prêts et qu’ils viennent d’abord du Japon. Cheok, de l’université de Keio, n’est pas convaincu que nous serons capables de produire des robots conscients capables de penser et de ressentir des choses avant la moitié du siècle – si jamais nous en sommes capables. Mais il est persuadé que nous nous dirigeons vers un futur profondément amoureux de la technologie.

Habités par une culture shintoïste, les Japonais ont beaucoup moins de réserve vis-à-vis d’une éventuelle connexion émotionnelle possible avec des machines. Mais comme les robots deviennent de plus en plus intelligents et attirants, Cheok est persuadé que de plus en plus de gens de toutes les cultures seront séduits à leur tour. « De toute façon, je pense que nous avons tous déjà développé des affinités avec des êtres moins intelligents. Dans notre enfance, nous étions nombreux à avoir un hamster ou une souris, qui ne sont pourtant pas si intelligents que ça, mais cela n’empêche pas un enfant de pleurer à la mort de son animal de compagnie préféré. »

« Je ne suis pas biologiste, je ne sais pas pourquoi nous développons de l’empathie, mais je suis sûr qu’il y a une raison majeure liée à notre évolution. Cette empathie ne se forme pas qu’envers d’autres êtres humains, nous arrivons à en développer pour de petites créatures ou autres animaux. Je ne pense pas que le fossé soit si grand pour que nous en développions pour des robots. »