Geoffrey Hinton, qui a créé une technologie de base pour les systèmes d’IA, a déclaré au New York Times que les progrès réalisés dans le domaine posaient « des risques profonds pour la société et l’humanité ».

« Regardez comment c’était il y a cinq ans et comment c’est maintenant », a-t-il déclaré dans l’article publié lundi.

« Prenez la différence et propagez-la vers l’avant. C’est effrayant. »

Hinton a déclaré que la concurrence entre les géants de la technologie poussait les entreprises à publier de nouvelles technologies d’IA à des vitesses dangereuses, risquant des emplois et diffusant des informations erronées .

« Il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l’utiliser pour de mauvaises choses », a-t-il déclaré au Times .

En 2022, Google et OpenAI – la start-up à l’origine du populaire chatbot IA ChatGPT – ont commencé à construire des systèmes utilisant des quantités de données beaucoup plus importantes qu’auparavant.

Hinton a déclaré au Times qu’il pensait que ces systèmes éclipsaient l’intelligence humaine à certains égards en raison de la quantité de données qu’ils analysaient.

« Peut-être que ce qui se passe dans ces systèmes est en fait bien meilleur que ce qui se passe dans le cerveau », a-t-il déclaré au journal.

Alors que l’IA a été utilisée pour soutenir les travailleurs humains, l’expansion rapide des chatbots comme ChatGPT pourrait mettre des emplois en danger.

AI « enlève le travail pénible » mais « pourrait en enlever plus que cela », a-t-il déclaré au Times .

Le scientifique a également mis en garde contre la propagation potentielle de la désinformation créée par l’IA, déclarant au Times que la personne moyenne « ne pourra plus savoir ce qui est vrai ».

Hinton a informé Google de sa démission le mois dernier, a rapporté le Times .

Jeff Dean, scientifique principal de Google AI, a remercié Hinton dans une déclaration aux médias américains.

« En tant que l’une des premières entreprises à publier les principes de l’IA, nous restons attachés à une approche responsable de l’IA », ajoute le communiqué .

« Nous apprenons continuellement à comprendre les risques émergents tout en innovant avec audace. »

En mars, le milliardaire technologique Elon Musk et une série d’experts ont appelé à une pause dans le développement des systèmes d’IA pour laisser le temps de s’assurer qu’ils sont sûrs.

Une lettre ouverte , signée par plus de 1 000 personnes, dont Steve Wozniak, co-fondateur de Musk et d’Apple, a été suscitée par la sortie de GPT-4, une version beaucoup plus puissante de la technologie utilisée par ChatGPT.

Hinton n’a pas signé cette lettre à l’époque, mais a déclaré au New York Times que les scientifiques ne devraient pas « intensifier cela davantage jusqu’à ce qu’ils aient compris s’ils peuvent le contrôler ».