Quel avenir avec les IA exercées à partir des réseaux sociaux ?
! Image d’en-tête générée à partir d’une intelligence artificielle ! – © Savage17YT via Midjourney
« Dis-moi ce que tu manges, je te dirai ce que tu es »
Brillât-Savarin
Cette maxime ne devrait-elle pas s’appliquer aux IA, déjà capables de générer des deep fakes de personnalités en train de manger du béton ?
Mettons de côté l’impact de ces images générées par un internaute pour engendrer un effet de buzz.
! Image générée à partir d’une intelligence artificielle ! – © Savage17YT via Midjourney
Si vous êtes utilisateurs de Facebook ou Instagram et que vous résidez en Europe, vous avez probablement reçu une nouvelle demande de consentement de Meta. En l’acceptant, sans aucune ambiguïté légale ni aucun moyen de revenir en arrière, la majorité de vos données personnelles (en nombre) seront aspirées pour entraîner l’IA européenne de l’entreprise américaine.
© Facebook Consent Message, may 2024
Comme autant d’expériences et d’exercices pour entraîner un humain, il faut une grande quantité de données pour formater une IA.
Les réseaux sociaux sont un énorme réservoir. En particulier car en plus des médias qu’il contient, les utilisateurs des réseaux ont tagué ces médias de nombreuses méta données qu’il aurait été extrêmement coûteux de faire qualifier soigneusement par des salariés formés et sensibilisés.
Ce sera le cas des différentes emojis pour associer une émotion à un sujet ou encore les commentaires qui vont avec.
Ce sont ces éléments qui vont être aspirés le 26 juin.
Les échanges personnels comme les communications privées sur Messenger sont préservés. Cela aurait probablement interpellé d’avantage d’utilisateurs mais l’enjeux est bien plus grand que la confidentialité individuelle.
Le risque est de voir des IA générées à partir de données particulièrement malsaines du web : les commentaires sans filtres, impulsifs, irréfléchis, croyances et faux semblants.
Cela revient à laisser nos enfants s’éduquer librement sur le web et les réseaux, sans aucun recul ni supervision préalable. Nous savons pourtant que le contenu d’internet est déjà corrompu par le volume de fausses informations qui remontent dans les moteurs de recherches. Quelles qualités et facultés pourraient-on attendre d’eux ? A quoi ressemblerait la société de demain ?
Affiche du film « Planet stupid »
Bon gré mal gré, les IA sont en train de prendre une place centrale dans les cheminements décisionnels.
Elles devraient en ce sens être soignées pour être fiables et irréprochables avant toute stratégie d’entraînement mue par un objectif court termiste de rapidité et d’économie.
Nous prenons autrement le risque de biaiser les décisions de demain en leur donnant nos travers comme modèle.
Des premières tentatives ont été faites aux USA ou la demande de consentement n’a pas été si incontournable qu’en Europe. Les premiers résultats ont généré des IA xénophobes, misogynes, radicalisées.
Photo prise en marge des manifestations suite au décès de Georges Floyd © Crédit photo : ©CJ GUNTHER/EPA/MAXPPP
Des systèmes de vidéo surveillance se sont retrouvés biaisés par les contenus qui les ont entraînées, allant à confondre un homme noir portant un thermomètre sans contact avec un porteur d’arme. Ce qui n’arrivait pas avec des porteurs blancs de peau.
Extraits d’images d’entraînement de vidéosurveillance
En occident de tels systèmes restent informationnels. Mais dans certains pays orientaux, ils sont désormais des systèmes armés autorisés à faire feu.
Comme toute invention il y a des risques faces auxquels le principe de précaution devrait prévaloir.
Dans le cas présent nous avons la possibilité de consentir ou non à prendre part à la chose.