Où est papa ?

Le lecteur se rendra compte par lui-même que de multiples titres (éminemment plus incisifs …) auraient pu être adoptés pour chapeauter ce qui va suivre.

A chacun de s’improviser “titreur d’horreurs”.

Le fait ?

Trois fois rien : l’armée israélienne utilise(rait) un logiciel dénommé “Lavender” fondé sur cette saleté que les crétins appellent “intelligence artificielle” et dont le but est tout simplement de choisir les cibles à massacrer !

Comme toujours avec cette guignolerie pour débiles qu’est l’IA, l’ordinateur improvise, et fait d’autant plus n’importe quoi que le malade qui est aux manettes en rajoute !

D’une marge d’erreur en quelque sorte “technique” de 10 % aux « “quotas pré-autorisés [par l’armée] de “victimes collatérales autorisées” avec un ratio de 15 ou 20 civils sacrifiables par milicien du Hamas ou du Djihad islamique », il n’y a pas à dire on s’éclate (enfin on éclate surtout … les autres).

Les américains nous avaient habitués à leurs exactions en Afghanistan et en Irak, lâchement commandées à distance par un « soldat opérant » en pantoufles depuis Langley.

L’armée israélienne (avec ou sans son parrain US) a franchi une ligne rouge : celle du sang des innocents.

En tous les cas, un conseil à tous nos lecteurs : s’il vous arrive de téléphoner, évitez de demander :

« Où est papa ? »

Article complet publié hier par Il Fatto Quotidiano :

https://www.ilfattoquotidiano.it/2024/04/05/israele-intelligenza-artificiale-raid-a-gaza-inchiesta-972-magazine/7502491/

« “Israël utilise l’intelligence artificielle dans ses raids à Gaza. Une bombe toutes les 20 secondes. C’est ainsi que les victimes se multiplient” : l’enquête de +972 Magazine »

« Une cible toutes les 20 secondes. Juste le temps de vérifier sur la kill list que la cible proposée par l’ordinateur est bien un homme et non une femme, et un clic suffit pour donner le “sceau d’approbation”. C’est ainsi que fonctionne le système basé sur l’intelligence artificielle mis au point par l’armée israélienne pour automatiser la recherche et la sélection des cibles à frapper, connu sous le nom de Lavender. C’est ce que révèle une enquête de +972 Magazine et Local Call, publiée en italien par manifesto. Une machine de guerre capable d’accélérer considérablement le processus d’autorisation des bombardements, mais qui a un défaut majeur : elle se trompe au moins une fois sur 10. Un pourcentage non négligeable lorsqu’on parle de la bande de Gaza, où Lavender, depuis le début de l’offensive israélienne en réponse au massacre du Hamas le 7 octobre, aurait identifié environ 37 000 cibles, souvent des familles comptant plus d’une personne. Et cette marge d’erreur de 10 % serait aussi l’une des explications du nombre si élevé de victimes civiles de la guerre à Gaza, qui a dépassé les 33 000 en six mois ».

« L’enquête, dont l’auteur est Yuval Abraham, se fonde sur les révélations inédites de six officiers de renseignement israéliens, sous couvert d’anonymat, qui ont tous servi dans l’armée pendant la guerre actuelle et ont directement utilisé le système d’intelligence artificielle pour générer des cibles à frapper. Lavender, qui n’est pas le seul logiciel utilisé par Tsahal pour guider ses armes (en décembre, l’existence d’un autre système a été révélée), a joué un rôle central, notamment au début de la guerre, lorsque le taux de victimes collatérales était le plus élevé. »

« Le logiciel aurait été développé par la division d’élite du renseignement des forces de défense israéliennes, l’unité 8200. Comme toutes les IA, il a été entraîné à “reconnaître”, dans les milliers de données fournies par les drones et les interceptions téléphoniques, des comportements et des individus prétendument liés au Hamas ou au Djihad islamique. Avec une rapidité et une “froideur” bien supérieures à celles des opérateurs humains qui géraient jusqu’à présent les systèmes d’armes. Selon les sources, la machine attribue à chaque habitant de Gaza une note de 1 à 100, en fonction de la probabilité qu’il soit un milicien. Comme indiqué, avec une marge d’erreur vérifiée de 10 %. »

« Mais l’intelligence artificielle, bien sûr, ne fait pas tout toute seule. L’effet mortel de Lavender aurait été amplifié par le fait que les FDI auraient assoupli les règles pour éviter les pertes collatérales, les officiers finissant par prendre pour argent comptant la plupart des suggestions émanant de l’ordinateur, sans vérifier la fiabilité des propositions de ciblage. »

« Pour certains types de cibles, ont expliqué les sources de 972, les forces israéliennes ont appliqué des quotas pré-autorisés de “victimes collatérales autorisées” avec un ratio de 15 ou 20 civils sacrifiables par milicien du Hamas ou du Djihad islamique, même s’ils sont “peu gradés”, ce qui, selon les règles précédentes, ne justifiait pas l’approbation d’un raid. Contrairement à l’autre système, The Gospel (formé pour reconnaître les installations militaires), Lavender se spécialise dans le ciblage d’individus à leur domicile, potentiellement avec toute leur famille, car les raids contre ces cibles sont considérés comme plus faciles et plus efficaces. L’une de ses activités de recherche les plus récurrentes a d’ailleurs été surnommée “Où est papa ?” par l’armée israélienne. »

« “C’est le Saint-Graal. Une fois que l’on passe à l’automatisation, la génération d’objectifs devient une folie”. Les sources anonymes ont expliqué que l’utilisation systématique de Lavander, qui n’était auparavant utilisé que comme outil auxiliaire, a été autorisée environ deux semaines après le début de la guerre. “Au début, nous faisions des vérifications pour nous assurer que la machine ne s’embrouillait pas, a déclaré une source, mais à un moment donné, nous nous sommes fiés au système automatique et nous avons simplement vérifié que la cible était un homme. Cela nous a fait gagner beaucoup de temps. »

« Dans une déclaration à +972 et Local Call, le porte-parole des FDI a nié l’utilisation de l’intelligence artificielle pour identifier les cibles, déclarant qu’il s’agit simplement “d’outils auxiliaires qui aident les officiers dans le processus d’inculpation”. Il a ajouté que “dans chaque cas, un examen indépendant par un analyste du renseignement est nécessaire, qui vérifie que les cibles identifiées sont légitimes pour une attaque conformément aux conditions énoncées dans les directives de Tsahal et le droit international”. »

« Les témoignages recueillis par +972 Mag donnent une idée d’une pratique différente. “Nous avons tous perdu quelqu’un le 7 octobre. La machine a facilité les choses”, a déclaré un responsable de Tsahal, soulignant que l’armée préférait s’appuyer sur “un mécanisme statistique” plutôt que, potentiellement, sur un soldat qui porte encore le deuil d’un parent tué le 7 octobre. Un autre a expliqué : “Je passais 20 secondes sur chaque cible et j’en faisais des dizaines par jour. Je n’avais aucune valeur ajoutée en tant qu’être humain, si ce n’est pour donner un coup de tampon. J’ai gagné beaucoup de temps”. “Dans le système, les objectifs ne s’arrêtaient jamais, même lorsque nous rejetions un objectif, le système en proposait immédiatement un autre”. »

« Un autre responsable militaire israélien illustre une erreur fréquente dans le mécanisme : “Si la cible du Hamas donnait le téléphone à son fils, à son frère aîné ou à n’importe quel autre homme, cette personne serait bombardée chez elle avec sa famille. Cela arrivait souvent. La plupart des erreurs causées par Lavender étaient de ce type”. Un autre soldat, sous couvert d’anonymat, a déclaré que le fait qu’Israël utilise de préférence des bombes muettes, c’est-à-dire des bombes non intelligentes, sur le terrain, parce qu’elles sont plus disponibles dans son arsenal, alourdit le bilan. »