Pour un SEO optimal : « Pause IA, les leaders tech. appellent. Le monde écoute-t-il ? »

les leaders technologiques suspendent les projets d'IA

Alors que l’IA devient plus puissante et omniprésente, les inquiétudes quant à son impact sur la société continuent de croître. Ces derniers mois, nous avons vu des avancées incroyables telles que GPT-4, une nouvelle version du modèle de langage de ChatGPT, d’Open-AI, capable d’apprendre si vite et de répondre à une multitude de questions avec un niveau de qualité incroyable.

Mais alors que ces capacités deviennent sans doute utiles à bien des égards, les progrès de l’IA soulèvent de nombreuses inquiétudes quant à l’avenir de la civilisation.

La semaine dernière, dans une « lettre ouverte » signée par le PDG de Tesla, Elon Musk, le co-fondateur d’Apple, Steve Wozniak, ainsi que des représentants d’un large éventail de domaines tels que la robotique, l’apprentissage automatique et l’informatique, ont appelé six mois de pause dans le « expériences géantes d’IA », évoquant des risques catastrophiques pour l’humanité.

Depuis, j’ai suivi les avis de certains experts et je vous invite à vous joindre à moi pour réfléchir à ce scénario.

la lettre ouverte

La «Pause Giant AI Experiments: An open letter», qui compte actuellement près de 6 000 signatures, appelle de toute urgence les laboratoires d’intelligence artificielle à «cesser de rechercher des systèmes plus puissants que GPT-4», déclare le mis en évidence dans le entête.

La lettre met en garde : « Les laboratoires d’IA sont enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable. »

Et il prédit aussi un avenir apocalyptique : « Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérités ? Doit-on automatiser tous les jobs, y compris ceux qui satisfont ? Devrions-nous développer des esprits non humains qui finiront par être plus nombreux que nous, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ?

A lire aussi :  3 exemples de contenu interactif pour des campagnes saisonnières créatives

Quel est le véritable « poids » de cette lettre ?

Au début, il est facile de sympathiser avec la cause, mais réfléchissons à tous les contextes mondiaux impliqués.

Bien que la lettre ait été approuvée par une longue liste d’autorités technologiques de premier plan, y compris des ingénieurs de Google et Meta, par exemple, la lettre a suscité une sérieuse controverse autour de certains signataires représentatifs incompatibles avec leurs pratiques concernant les limites de sécurité entourant leurs technologies, comme Elon Musk lui-même. a licencié son équipe « IA éthique » l’année dernière, comme l’ont rapporté Wired, Futurism et de nombreux autres sites d’information à l’époque.

Il convient de mentionner que Musk, qui a cofondé Open-AI et a quitté l’entreprise en 2018, les a attaqués à plusieurs reprises sur Twitter avec des critiques cinglantes des avancées de ChatGPT.

Sam Altman, co-fondateur d’Open-AI, dans une conversation avec le podcasteur Lex Fridman, déclare que les inquiétudes concernant les expériences AGI sont légitimes et reconnaît que les risques, tels que la désinformation, sont réels.

De plus, dans une interview accordée au WSJ, Altman affirme que l’entreprise est depuis longtemps préoccupée par la sécurité de ses technologies et qu’elle a passé plus de 6 mois à tester l’outil avant sa sortie.

Quels sont les effets pratiques de la lettre ?

Andrew Ng, fondateur et PDG de Landing AI, fondateur de DeepLearning.AI et associé directeur général du fonds AI, a publié sur son compte Linkedin : « L’appel à un moratoire de 6 mois sur la progression de l’IA au-delà de GPT-4 est Une mauvaise idée. Je vois de nombreuses nouvelles applications dans les domaines de l’éducation, de la santé, de l’alimentation, … qui aideront de nombreuses personnes. Améliorer GPT-4 aidera. Nous trouverons un équilibre entre l’énorme valeur créée par l’IA et des risques réalistes. »

A lire aussi :  J'ai testé les nouveaux outils d'IA d'Adobe : Firefly et Generative Fill. Voici quelques aperçus intéressants

Il a aussi dit: « Il n’y a aucun moyen réaliste de mettre en place un moratoire et d’empêcher toutes les équipes de faire évoluer les LLM à moins que les gouvernements n’interviennent avec une politique d’innovation. »

Il a aussi dit: «Il n’y a aucun moyen réaliste de mettre en œuvre un moratoire et d’empêcher toutes les équipes de faire évoluer les LLM à moins que les gouvernements n’interviennent. Amener les gouvernements à suspendre les technologies émergentes qu’ils ne comprennent pas est anticoncurrentiel, crée un terrible précédent et constitue une mauvaise politique d’innovation. »

Comme NG, de nombreux autres experts en technologie étaient également en désaccord avec le point principal de la lettre, appelant à l’arrêt des expériences. À leur avis, de cette manière, nous pourrions nuire aux grandes avancées de la science et aux découvertes en matière de santé, telles que la détection du cancer du seintel que rapporté dans le NY Times le mois dernier.

Éthique et réglementation de l’IA : un réel besoin

S’il y a une véritable course de géants pour mettre sur le marché des solutions LLM de plus en plus intelligentes, force est de constater que peu d’avancées ont été faites en matière de réglementation et autres précautions à prendre « pour hier ». Si l’on y réfléchit, il ne serait même pas nécessaire de s’attarder sur les événements « apocalyptiques », ceux de longue durée, comme ceux évoqués dans la lettre, pour confirmer l’urgence. Les problèmes actuels et fatidiques générés par la « désinformation » suffiraient.

Autour de cela, nous avons récemment vu comment l’IA peut créer des « vérités » à partir de montages d’images homogènes, comme la photo virale du pape portant un manteau souffleur qui a dominé le web ces derniers jours, parmi tant d’autres productions et diffusions vidéo « fausses », utilisant les voix et les visages de célébrités.

A lire aussi :  5 solutions pour assurer la sécurité sur un quai de déchargement

En ce sens, les laboratoires d’IA, dont Open-IA, ont travaillé sur des solutions pouvant aider à identifier les contenus (textes, images, vidéos, etc.) générés par l’IA, comme par exemple l’utilisation de l’eau, comme le montre cet article What’s New in Publishing (WNIP).

Conclusion

Au-delà de la politique de confidentialité mise en place sur les sites internet sur lesquels nous naviguons pour garantir notre pouvoir de choix, que nous acceptions ou non de partager nos informations, je crois qu’il est possible de penser à un futur où l’intelligence artificielle fonctionne, de manière sécurisée, pour de nouvelles avancées dans notre société.

Vous souhaitez vous tenir au courant des meilleures pratiques Marketing ? Alors inscrivez-vous à The Beat, la newsletter interactive de WK Transport-Logistique Content. Vous y trouverez toutes les tendances qui comptent dans le scénario du marketing numérique. On se verra là bas!

A propos de l'auteur

Retour en haut