A l’issue de sa présentation I/O mercredi, Google a sorti une surprise de type “one more thing”. Dans une courte vidéoGoogle a présenté une paire de lunettes de réalité augmentée qui n’ont qu’un seul but – afficher des traductions audibles juste devant vos yeux. Dans la vidéo, Max Spear, chef de produit Google, a qualifié la capacité de ce prototype de “sous-titres pour le monde”, et nous voyons des membres de la famille communiquer pour la première fois.

Maintenant, attendez juste une seconde. Comme beaucoup de gens, nous avons déjà utilisé Google Traduction et le considérons en grande partie comme un outil très impressionnant qui fait beaucoup de ratés embarrassants. Bien que nous puissions lui faire confiance pour nous indiquer l’itinéraire vers le bus, ce n’est pas la même chose que de lui faire confiance pour interpréter et transmettre correctement les histoires d’enfance de nos parents. Et Google n’a-t-il pas déjà dit qu’il brisait enfin la barrière de la langue ?

En 2017, Google a commercialisé la traduction en temps réel en tant que fonctionnalité de ses Pixel Buds originaux. Notre ancien collègue Sean O’Kane décrit l’expérience comme “une idée louable avec une exécution lamentable” et a rapporté que certaines des personnes avec lesquelles il l’avait essayé avaient dit que cela ressemblait à un enfant de cinq ans. Ce n’est pas tout à fait ce que Google a montré dans sa vidéo.

De plus, nous ne voulons pas ignorer le fait que Google promet que cette traduction aura lieu à l’intérieur d’une paire de lunettes AR. Sans toucher au point sensible, mais la réalité de la réalité augmentée n’a même pas vraiment rattrapé celle de Google vidéo conceptuelle d’il y a dix ans. Vous savez, celui qui a servi de prédécesseur au très décrié et gênant à porter Lunettes Google?

Pour être juste, les lunettes de traduction AR de Google semblent beaucoup plus ciblées que ce que Glass essayait d’accomplir. D’après ce que Google a montré, ils sont censés faire une chose – afficher du texte traduit – et non agir comme une expérience informatique ambiante qui pourrait remplacer un smartphone. Mais même dans ce cas, fabriquer des lunettes AR n’est pas facile. Même une quantité modérée de lumière ambiante peut rendre l’affichage du texte sur des écrans transparents très difficile. Il est déjà assez difficile de lire des sous-titres sur un téléviseur avec un peu d’éblouissement du soleil à travers une fenêtre ; imaginez maintenant cette expérience mais attachée à votre visage (et avec la pression supplémentaire d’engager une conversation avec quelqu’un que vous ne pouvez pas comprendre par vous-même).

Mais bon, la technologie évolue rapidement – Google peut être en mesure de surmonter un obstacle qui a a bloqué ses concurrents. Cela ne changerait rien au fait que Google Translate n’est pas une solution miracle pour la conversation multilingue. Si vous avez déjà essayé d’avoir une conversation réelle via une application de traduction, vous savez probablement que vous devez parler lentement. Et méthodiquement. Et clairement. A moins que vous ne vouliez risquer une traduction brouillée. Un lapsus, et vous aurez peut-être fini.

Les gens ne conversent pas dans le vide ou comme le font les machines. Tout comme nous changeons de code lorsque nous parlons à des assistants vocaux comme Alexa, Siri ou Google Assistant, nous savons que nous devons utiliser des phrases beaucoup plus simples lorsque nous traitons de la traduction automatique. Et même lorsque nous parlons correctement, la traduction peut toujours être maladroite et mal interprétée. Certains de nos Bord collègues parlant couramment le coréen ont souligné que Compte à rebours pré-roll de Google pour les E/S a affiché une version honorifique de “Bienvenue” en coréen que personne n’utilise réellement.

Ce flub légèrement embarrassant pâlit par rapport au fait que, selon les tweets de Rami Ismail et Sam EttingerGoogle a montré plus d’une demi-douzaine de scripts inversés, cassés ou autrement incorrects sur une diapositive lors de sa présentation Translate. (Police androïde Remarques qu’un employé de Google a reconnu l’erreur et qu’elle a été corrigée dans la version YouTube du discours d’ouverture.) Pour être clair, ce n’est pas que nous nous attendons à la perfection – mais Google essaie de nous dire qu’il est proche de craquer la traduction en temps réel, et ce genre d’erreurs rend cela incroyablement improbable.

Google tente de résoudre un immensément problème compliqué. Traduire des mots est facile; comprendre la grammaire est difficile mais possible. Mais le langage et la communication sont bien plus complexes que ces deux choses. À titre d’exemple relativement simple, la mère d’Antonio parle trois langues (italien, espagnol et anglais). Elle emprunte parfois des mots d’une langue à l’autre au milieu d’une phrase – y compris son dialecte italien régional (qui est comme une quatrième langue). Ce genre de choses est relativement facile à analyser pour un humain, mais les prototypes de lunettes de Google pourraient-ils s’en occuper ? Peu importe les parties les plus désordonnées de la conversation comme les références peu claires, les pensées incomplètes ou les insinuations.

Ce n’est pas que l’objectif de Google n’est pas admirable. Nous voulons absolument vivre dans un monde où chacun peut découvrir ce que font les participants à la recherche dans la vidéo, regardant avec émerveillement les yeux écarquillés lorsqu’ils voient les mots de leurs proches apparaître devant eux. Briser les barrières linguistiques et se comprendre d’une manière que nous ne pouvions pas auparavant est quelque chose dont le monde a bien plus besoin; c’est juste qu’il y a un long chemin à parcourir avant d’atteindre cet avenir. La traduction automatique est là et depuis longtemps. Mais malgré la pléthore de langues qu’il peut gérer, il ne parle pas encore l’humain.


Lié:

Leave a Reply

Your email address will not be published.