TV

Meta facilite-t-il le bombardement israélien des Palestiniens à Gaza avec l’aide de l’IA?

US Rep. Ilhan Omar (D-MN) (L) talks with Speaker of the House Nancy Pelosi (D-CA) during a rally with fellow Democrats before voting on H.R. 1, or the People Act, on the East Steps of the US Capitol on March 08, 2019 in Washington, DC. (AFP photo)

Par Maryam Qarehgozlou

Un grondement lointain de plus en plus fort avertit d'une frappe aérienne menaçante, et soudain le ciel se déchire avec le rugissement assourdissant des moteurs et le sifflement perçant des bombes qui tombent.

Les explosions envoient des ondes de choc dans l’air, brisant les fenêtres et déchirant les murs.

Les débris pleuvent et l’air est rempli de fumée. Les survivants sortent des décombres, hébétés et ensanglantés, cherchant frénétiquement leurs proches au milieu de la cacophonie incessante de la mort et de la destruction.

Selon des rapports récents, Israël a ciblé sans discernement les Palestiniens d’étroite bande de Gaza en utilisant ses programmes basés sur l’intelligence artificielle (IA) tels que « Lavender », « Gospel » et « Where’s Daddy » en utilisant des informations en partie fournies par l’application de messagerie WhatsApp par Meta.

La récente révélation a une fois de plus levé du voile sur les liens profonds entre le régime de l’apartheid et les géants des médias sociaux, en l’occurrence Meta, anciennement connu sous le nom de Facebook, dont le siège est en Californie, aux États-Unis.

Comment fonctionnent les machines à tuer IA d’Israël ?

Lavender [un système de traitement de données] est une « machine cible », basée sur l’IA et des algorithmes d’apprentissage automatique, qui est alimentée par des informations incluant les caractéristiques d’éminents combattants de la Résistance palestinienne du Hamas et du Jihad islamique comme données d’entraînement, et elle peut ensuite localiser ces mêmes caractéristiques ou ce qu’on appelle « caractéristiques » parmi la population générale, selon une enquête récente menée par +972 Magazine et Local Call.

Un rapport publié plus tôt ce mois-ci indiquait que ces caractéristiques, comme le fait d'être dans un groupe WhatsApp avec un combattant de la Résistance connu, de changer de téléphone portable tous les quelques mois et de changer fréquemment d'adresse, peuvent changer le classement des gens.

La machine Lavender rejoint un autre système d'intelligence artificielle connu sous le nom de Gospel. Alors que Lavender marque les gens et les inscrit sur une liste de victimes sur la base de son ensemble de données d'entraînement, Gospel marque les bâtiments et les structures, où les combattants de la Résistance, y compris ceux de bas rang, planifient, le prétend l’armée israélienne, leurs opérations, souligne le rapport.

« Where’s Daddy » suit les cibles et signale à l’armée israélienne, lorsque des suspects entrent dans leur maison familiale.

Six sources anonymes qui ont servi dans l’armée israélienne pendant la guerre actuelle dans la bande de Gaza ont déclaré au magazine +972 et Local Call que Lavender a joué un « rôle central » dans les bombardements sans précédent contre les Palestiniens, en particulier au début de la guerre actuelle.

Selon ces sources, alors que Lavender commet des « erreurs » dans environ 10 % des cas en marquant les individus qui n’ont qu’un faible lien avec des groupes de résistance, voire aucun lien, le personnel humain ne servait souvent que de « tampon » aux décisions de la machine.

Les résultats fournis par la machine ont été traités « comme s’il s’agissait d’une décision humaine », ont-ils déclaré, ajoutant qu’il leur avait fallu environ « 20 secondes » avant d’autoriser un bombardement – suffisamment pour s’assurer que la cible marquée par Lavender était un être humain.

De plus, le rapport révèle que, en raison de ce qu'on appelle un « point de vue du renseignement », les militaires ont préféré localiser les individus dans leurs maisons privées, en utilisant des systèmes automatisés tels que « Where’s Daddy » pour traquer les individus ciblés et perpétrer des attentats à la bombe dans leurs résidences familiales.

« [L’armée israélienne] les ont bombardés dans des maisons sans hésitation, comme première option. Il est bien plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ces situations », a déclaré l’une des sources.

D’autres sources citées dans le rapport ont également déclaré : « Dans certains cas, après que l’armée israélienne a bombardé la maison privée d’une famille, il s’est avéré que la cible de l’assassinat n’était même pas à l’intérieur de la maison, puisqu’aucune autre vérification n’avait été effectuée en temps réel. »

Et c’est à cause des décisions erronées du programme d’IA que des milliers de Palestiniens – pour la plupart des femmes, des enfants ou des personnes non impliquées dans les combats – ont été tués par les raids israéliens, en particulier pendant les premières semaines de la guerre qui a débuté le 7 octobre 2023.

Selon les chiffres communiqués par les Nations Unies le 20 novembre 2023, 45 jours après le début de la guerre, plus de la moitié des victimes – 6 120 personnes – appartenaient à 825 familles, dont beaucoup ont été complètement anéanties alors qu’elles étaient à l’intérieur de leurs maisons.

Ciblage avec des bombes « stupides » non guidées

Le rapport souligne également que l’armée israélienne a utilisé ses bombes aériennes non guidées, communément dites « bombes stupides » (par opposition aux bombes de précision « intelligentes ») pour cibler les jeunes combattants de la Résistance.

Ces bombes sont connues pour causer plus de dégâts collatéraux que les bombes guidées.

« Vous ne voulez pas gaspiller des bombes coûteuses pour des personnes sans importance – cela coûte très cher au pays et il y a une pénurie [de ces bombes] », a déclaré l’une des sources citées dans le rapport.

Deux des sources ont déclaré que pour chaque jeune combattant « suspecté » de la Résistance du Hamas marqué par Lavender, l’armée israélienne avait autorisé le personnel à tuer jusqu’à 15 ou 20 civils, ce qui, selon les sources, était sans précédent dans le passé.

« Dans le passé, l'armée n'autorisait aucun « dommage collatéral » lors des assassinats de militants de bas rang », ont-elles précisé.

Cependant, dans le cas de hauts responsables du Hamas, l'armée israélienne a autorisé à plusieurs reprises le meurtre de plus de 100 civils, toujours selon les mêmes sources.

Ata Mirqara, un journaliste chevronné, a déclaré sur le site Internet de Press TV que le « langage déshumanisant » répandu en Israël avait contribué à créer un climat dans lequel de tels crimes horribles peuvent avoir lieu.

« Même si certains pourraient trouver cela choquant ou sans précédent, traiter les Palestiniens comme des chiffres et les déshumaniser est le modus operandi spécial d’Israël pour neutraliser l’indignation du public face à ce qui équivaut au pire nettoyage ethnique de l’histoire contemporaine », a déclaré Mirqara.

« Combattre les « animaux humains », faire de Gaza un « abattoir » et « effacer la bande de Gaza de la surface de la terre » font partie de la rhétorique incendiaire et un élément clé du langage utilisé par les dirigeants israéliens à propos des Palestiniens à Gaza depuis le début de la guerre et constitue la preuve de l’intention d’Israël de commettre un génocide dans la bande de Gaza », a ajouté Mirqara.

Meta est-il complice du génocide des Palestiniens assisté par l’IA ?

Plus tôt ce mois-ci, Paul Biggar, un ingénieur logiciel et blogueur basé à New York, a mis en lumière un « détail peu discuté » dans un article du magazine +972 et de Local Call sur Lavender et la façon dont elle tue des Palestiniens, sur la base des données que « WhatsApp par Meta » partage probablement avec lui.

Sur la base de l’article +972, les entrées du système d’IA israélien peuvent inclure l’appartenance à un groupe WhatsApp avec un membre présumé du Hamas.

« Il existe de nombreux scénarios possibles, y compris la collusion d’employés avec Israël, des vulnérabilités de sécurité connues ou inconnues et l’échec du produit WhatsApp à donner la priorité à la protection de ses utilisateurs face à ces cas de diverses manières », a déclaré Biggar au site Press TV dans un e-mail.

Cependant, Biggar, le fondateur de Tech for Palestine, a déclaré qu’il n’était pas clair si Meta « facilitait directement » le « génocide » à Gaza ou non.

Meta n'a pas immédiatement répondu à une demande de commentaire du site Press TV.

Plus tôt, un porte-parole de Meta avait déclaré à Middle East Monitor concernant les récentes spéculations selon lesquelles le géant de la technologie ne dispose d'aucune information sur l'exactitude de ces rapports.

« WhatsApp n’a pas de porte dérobée et nous ne fournissons aucune information en masse à aucun gouvernement. Depuis plus d’une décennie, Meta a fourni des rapports de transparence cohérents et ceux-ci incluent les circonstances limitées dans lesquelles des informations WhatsApp ont été demandées », a déclaré le porte-parole.

Celui-ci ajoute que les principes de Meta sont « fermes » et qu’elle « examine, valide et répond soigneusement aux demandes des forces de l’ordre sur la base du droit applicable et conformément aux normes internationalement reconnues, y compris les droits de l’homme ».

Cependant, Biger a déclaré au site PressTV que la déclaration de Meta à ce sujet en disait peu sur la gravité de la situation. Et cela signifie qu’ils ne feront rien à ce sujet.

« La réponse de Meta ne précise pas si leurs utilisateurs ont été lésés et continuent de l’être, et leur manque de réponse à ce sujet est choquant compte tenu des allégations. Il s’agit d’un détournement, et en résumé, ils prévoient de ne rien faire du tout, pas même d’enquêter sur les réclamations, un manquement total à leurs obligations envers leurs utilisateurs », a-t-il prévenu.

« La réponse de Meta ne précise pas si leurs utilisateurs ont été lésés et continuent de l’être, et leur manque de réponse à ce sujet est choquant compte tenu des allégations. Il s’agit d’un détournement, et en résumé, ils prévoient de ne rien faire du tout, pas même d’enquêter sur les plaintes, un manquement total à leurs obligations envers leurs utilisateurs », a-t-il prévenu.

Selon Biggar, si Meta fournit à Israël les données de ses utilisateurs, cela pourrait constituer une menace pour la vie des habitants de Gaza.

« Cela ne menace pas seulement la sécurité et la vie privée des utilisateurs à Gaza, cela menace leur vie, et  la vie de tous les utilisateurs de WhatsApp dans un régime oppressif similaire, qui inclut la majeure partie du monde. »

Pourquoi Meta pourrait-il aider au génocide de Gaza ?

Il existe des précédents pour le parti pris pro-israélien de Meta. Aux premiers stades de la guerre, des groupes de défense des droits ont révélé que Meta s’était engagé dans une censure « systémique et mondiale » des contenus pro-palestiniens depuis le début de la guerre.

De plus, en février, Meta a annoncé qu’elle « revoyait» sa politique en matière de discours de haine autour du terme « sioniste », ce qui a également suscité des inquiétudes quant à une censure plus poussée des contenus pro-palestiniens.

En 2017, Sheryl Sandberg, alors directrice des opérations (COO) de Meta et actuelle membre du conseil d'administration de Meta, a déclaré que les métadonnées fournies par WhatsApp avaient le potentiel d'informer les gouvernements sur d'éventuelles activités terroristes.

Biggar déclare au site Press TV que les dirigeants de Meta eux-mêmes sont « extrêmement sectaires » et pro-israéliens.

« Ils ont un centre majeur à Tel-Aviv et des centaines d’employés israéliens et des dizaines d’anciens employés de l’Unité 8200 », a-t-il déclaré, mentionnant le tristement célèbre service de renseignement militaire israélien qui surveille les communications électroniques palestiniennes.

Selon Biggar, trois des plus hauts dirigeants de Meta entretiennent des liens étroits avec Israël, notamment Guy Rosen, responsable de la sécurité de l'information (RSSI), qui a également servi dans l'armée israélienne au sein de l'unité 8200 et est l'une des personnes les plus puissantes de l'entreprise, car elle concerne la politique de contenu.

Mark Zuckerberg, fondateur et PDG de Meta, et Sandberg ont également activement encouragé la fausse propagande israélienne, y compris le canular discrédité du « viol massif du Hamas le 7 octobre », a-t-il ajouté.

Biggar a également déclaré que Zuckerberg avait fait don de 125 000 dollars à Zaka, une organisation ultra-orthodoxe de recherche et de sauvetage, qui a créé et continue de diffuser une grande partie de la fausse propagande d’atrocités contre le Hamas.

« Cette alliance avec Israël de la part des plus hauts responsables de la gouvernance de Meta – RSSI, PDG et membre du conseil d’administration – met en lumière la raison pour laquelle l’armée israélienne est en mesure d’obtenir ces informations de WhatsApp, une application soi-disant « privée » », a déclaré Biggar.

Partager Cet Article
SOURCE: FRENCH PRESS TV