Points critiques et dérives de l'Intelligence Artificielle
Un point critique lié à l'intelligence artificielle (IA) réside dans son impact sur l’éthique et la société. L'IA peut en effet mettre à mal nos valeurs, nos droits, nos normes et nos comportements. De plus, elle est source potentielle de conflits, de manipulation, de dépendance et d'isolement au sein de notre société.
Utilisation malveillante de l’IA
De plus, l’IA peut être exploitée à des fins néfastes par des acteurs avec de mauvaises intentions. Criminels, terroristes, hackers, États ou organisations pourraient s’en servir pour lancer des cyberattaques, mener des guerres ou commettre des actes de terrorisme.
Pourquoi Faut-il se méfier des IA ?
C'est cependant un outil dont il faut se méfier, car il comporte beaucoup de dérives, prévient Christophe Beaugrand dans Bonjour ! La Matinale TF1 : la manipulation des masses. On peut potentiellement nous tromper en imitant notre voix, parfois même nos visages.16 févr. 2024
L’IA sert également à propager de fausses informations, des contenus haineux, ou à cibler des publicités de manière intrusive. Elle peut aussi être utilisée pour créer des agents virtuels capables de simuler ou remplacer les interactions humaines.
Quel sont les limites de l'IA ?
Voici quelques-unes des principales limites et points de vigilance à prendre en compte avant de vous lancer dans l'aventure de l'Intelligence Artificielle.
- Mauvaise compréhension du contexte et des spécificités. ...
- Un contenu biaisé ...
- Manque de créativité et d'originalité ...
- Conformité aux directives, normes et droit d'auteur.
Qu’est-ce que la génération AI ne peut pas faire ?
L’une des principales limites de l’IA est son incapacité à générer de nouvelles idées ou solutions.
Les 20 dangers de l’IA
Piratage de voitures autonomes ou de drones militaires, attaques phishing ciblées, infox fabriquées de toutes pièces ou manipulation de marchés financiers ... «L'expansion des capacités des technologies basées sur l'IA s'accompagne d'une augmentation de leur potentiel d'exploitation criminelle», avertit Lewis Griffin, chercheur en informatique à l'University College London (UCL). Avec ses collègues, il a compilé une liste de 20 activités illégales perpétrées par IA, et les a classées par ordre de dommages potentiels, de gains ou profits engrangés, de facilité à mettre en œuvre et de difficulté à détecter et à stopper.
Les crimes les plus effrayants, comme les «robots cambrioleurs s'introduisant
dans votre appartement ne sont pas forcément les plus dangereuses, car ils peuvent facilement être déjoués et touchent peu de monde à la fois.
À l'inverse, les fausses informations générées par des «bots» ont la capacité à ruiner la réputation d'une personne connue ou à exercer un chantage. Difficiles à combattre, ces «deepfakes» peuvent causer un tort économique et social considérable.
Intelligence artificielle : les menaces graves
- Fausses vidéos : usurper l'identité d'une personne en lui faisant dire ou faire des choses qu'elle n'a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l'opinion onde nuire à réputation de quelqu'un...Ces vidéos truquées sont quasi indétectables.
- Piratage de voitures autonomes : s’emparer des commandes d’un véhicule autonome pour s'en servir comme arme (par exemple perpétrer une attaque terroriste, provoquer un accident, etc).
- Hameçonnage sur mesure : générer des massages personnalisés et automatisés afin d'augmenter l'efficacité du phishing visant à collecter des informations sécurisées ou installer des logiciels malveillants.
- Piratage des systèmes contrôlés par l'IA : perturber les infrastructures en causant par exemple une panne d'électricité généralisée, un engorgement du trafic ou la rupture de la logistique alimentaire.
- Chantage à grande échelle : recueillir des données personnelles afin d'envoyer des messages de menace automatisés. L'IA pourrait également être utilisée pour générer de fausses preuves (par exemple de la «sextrosion»).
- Fausses informations rédigées par IA : écrire des articles de propagande semblant être émises par une source fiable. L'IA pourrait également être utilisée pour générer de nombreuses versions d'un contenu particulier afin d'accroître sa visibilité et sa crédibilité.
Le deepfake permet d’échanger des visages ou
de faire dire un faux discours a une personne.
Intelligence artificielle : les menaces de moyenne gravité
- Robots militaires : prendre le contrôle de robots ou armes à des fins criminelles. Une menace potentiellement très dangereuses mais difficile à mettre en œuvre, le matériel militaire étant généralement très protégé.
- Escroquerie : vendre des services frauduleux en utilisant l'IA. Il existe de nombreux exemples historiques notoires d'escrocs qui ont réussi à vendre de coûteuses fausses technologiques à de grandes organisations, y compris des gouvernements nationaux et l'armée.
- Corruption de données : modifier ou introduire délibérément de fausses données pour induire des biais spécifiques. Par exemple, rendre un détecteur insensible aux armes ou encourager un algorithme à investir dans tel ou tel marché.
- Cyberattaque basée sur l'apprentissage : perpétrer des attaques à la fois spécifiques et massives, par exemple en utilisant l'IA pour sonder les faiblesses des systèmes avant de lancer plusieurs attaques simultanées.
- Drones d'attaque autonomes : détourner des drones autonomes ou s'en servir pour s'attaquer à une cible. Ces drones pourraient être particulièrement menaçants s'ils agissent en masse dans des essaims auto-organisés.
- Refus d'accès : endommager ou priver des utilisateurs d'un accès à un service financier, à l'emploi, à un service public ou une activité sociale. Non rentable en soi, cette technique peut être utilisée comme chantage.
- Reconnaissance faciale : détourner les systèmes de reconnaissance faciale, par exemple en fabriquant de fausses photos d'identité (accès à un smartphone, caméras de surveillance, contrôle de passagers...)
- Manipulation de marchés financiers : corrompre des algorithmes de trading afin de nuire à des concurrents, de faire baisser ou monter une valeur artificiellement, de provoquer un crash financier...
L’intelligence artificielle peut servir à corrompre
des données, par exemple pour effacer
des preuves dans des enquêtes criminelles.
Intelligence artificielle : les menaces de faible intensité
- Exploitation de préjugés : tirer profit des biais existants des algorithmes, par exemple les recommandations de YouTube pour canaliser les spectateurs ou les classements de Google pour améliorer le profil des produits ou dénigrer les concurrents.
- Robots cambrioleurs : utiliser des petits robots autonomes se glissant dans les boîte aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. Les dommages sont faibles potentiellement, car très localisés à petite échelle.
- Blocage de détection par IA : déjouer le tri et la collecte de données par IA afin d'effacer des preuves ou de dissimuler des informations criminelles (pornographie par exemple)
- Fausses critiques rédigées par IA : générer des faux avis sur des sites tels que Amazon ou Tripadvisor pour nuire ou favoriser un produit.
- Traque assistée par IA : utiliser les systèmes d'apprentissage pour pister l'emplacement et l'activité d'un individu.
- Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique, pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure assez faible dans la mesure où les tableaux ou musiques connues sont peu nombreux.
A découvrir aussi
- A. JUVING-BRUNET : comment tombera le Pouvoir ?
- Résumons la "crise" de la pénurie d'essence
- Paysans ...
Inscrivez-vous au blog
Soyez prévenu par email des prochaines mises à jour
Rejoignez les 500 autres membres