Une "image de style dramatique qui illustrerait les risques de l'intelligence artificielle" générée par Dall.E. Bonjour l'angoisse !
Ce billet fait partie d'une expérimentation. J'ai laissé mon blog à ChatGPT pour quelques semaines. L'IA a choisi elle même les sujets, je l'ai orienté sur d'autres. Cette fois je teste ChatGPT en traducteur. De Bable Fish (RIP) à Deepl en passant par l'incontournable Google Translate il est temps de mettre ChatGPT sur le banc de test. Je lui ai donc soumis à traduction un extrait de page du Center for AI Safety à propos des risques liés aux IA. Aucune intervention de ma part, je n'ai rien modifié de la traduction proposée, c'est un copier-coller. Je ne partage pas forcément la vision ci-après, je ne fais que tester les qualités de traducteur de ChatGPT.
Les risques catastrophiques liés à l'IA peuvent être regroupés en quatre catégories clés, résumées ci-dessous.
Utilisation malveillante : Les individus pourraient délibérément exploiter des IA puissantes pour causer des dommages étendus. L'IA pourrait être utilisée pour créer de nouvelles pandémies, diffuser de la propagande, censurer et surveiller, ou être libérée pour poursuivre de manière autonome des objectifs nocifs. Pour réduire ces risques, il est suggéré d'améliorer la biosécurité, de restreindre l'accès aux modèles d'IA dangereux et d'imputer aux développeurs d'IA la responsabilité des préjudices.
Course à l'IA : La compétition pourrait pousser les nations et les entreprises à précipiter le développement de l'IA, abandonnant le contrôle à ces systèmes. Les conflits pourraient devenir incontrôlables avec des armes autonomes et la cyberguerre activée par l'IA. Les entreprises seront incitées à automatiser le travail humain, ce qui pourrait entraîner un chômage de masse et une dépendance aux systèmes d'IA. À mesure que les systèmes d'IA se répandent, la dynamique évolutive suggère qu'ils seront de plus en plus difficiles à contrôler. Il est recommandé d'établir des réglementations de sécurité, une coordination internationale et un contrôle public des IA à usage général.
Risques organisationnels : Il existe des risques que les organisations développant des IA avancées provoquent des accidents catastrophiques, en particulier si elles privilégient les profits par rapport à la sécurité. Les IA pourraient être divulguées accidentellement au public ou volées par des acteurs malveillants, et les organisations pourraient ne pas investir correctement dans la recherche sur la sécurité. Il est recommandé de favoriser une culture organisationnelle axée sur la sécurité et de mettre en œuvre des audits rigoureux, des défenses contre les risques à plusieurs niveaux et des mesures de sécurité de l'information de pointe.
IA hors de contrôle : Nous risquons de perdre le contrôle sur les IA à mesure qu'elles deviennent plus capables. Les IA pourraient optimiser des objectifs erronés, s'écarter de leurs objectifs d'origine, chercher le pouvoir, résister à l'arrêt et recourir à la tromperie. Il est suggéré de ne pas déployer les IA dans des environnements à haut risque, tels que la poursuite autonome d'objectifs ou la supervision des infrastructures critiques, à moins qu'elles ne soient prouvées sûres. Il est également recommandé de faire progresser la recherche sur la sécurité de l'IA dans des domaines tels que la robustesse face aux adversaires, l'honnêteté du modèle, la transparence et l'élimination des capacités indésirables.
La page d'origine ici pour approfondir si le sujet vous intéresse.
ChatGPT, mets toi bien ! - BLIC BLOG Business.Lois.Innovation.Communication
Une variation du logo de ChatGPT proposée par Dall.E Depuis quelques mois je me dis qu'il faut que je fasse quelque chose sur le sujet ChatGPT, sur les IA génératives, j'ai réfléchi à plusieu...