Soyez le premier informé - Rejoignez notre page Facebook.

Un seul officier, le colonel russe Stanislav Petrov, qui a décidé d’exercer son jugement humain et de passer outre les capteurs du centre d’alerte précoce qu’il commandait, qui avertissait qu’une attaque nucléaire américaine contre l’URSS était en cours, a sauvé le monde d’une fin apocalyptique

En 2020, la même situation pourrait bientôt impliquer la technologie de l’intelligence artificielle, qui évolue si rapidement que ni Petrov ni personne d’autre ne pourrait intervenir à temps pour arrêter une guerre nucléaire basée sur une fausse alerte ou une erreur informatique.

L’ intelligence artificielle (IA) est en train de reconfigurer tous les domaines de notre vie, mais deux domaines dans lesquels son impact présente des avantages et des inconvénients potentiels sont la guerre et lutte contre le terrorisme.

Pour être juste, le scénario ci-dessus est le pire des cas d’utilisation potentielle de l’intelligence artificielle; Cela ne s’est pas encore produit et il existe une variété d’utilisations potentielles extrêmement positives du renseignement dans la guerre et la lutte contre le terrorisme .

Lors d’une récente conférence du Centre interdisciplinaire Herzliya sur l’intelligence artificielle et la guerre, le Dr Daphné Richemond-Barak a parlé de la capacité de l’intelligence artificielle à augmenter la vitesse et la précision d’une bataille conventionnelle.

Bien que cela signifie que les armées pourraient être plus meurtrières contre les adversaires, cela signifie également qu’elles pourraient être moins susceptibles de commettre des erreurs, comme frapper des cibles civiles.

Richemond-Barak a également expliqué comment l’intelligence artificielle peut être utilisée pour affecter des unités militaires spécifiques de manière plus adéquate à des tâches spécifiques en temps réel afin d’éviter le gaspillage et les décalages qui sont courants dans le brouillard de la guerre.

Tout cela est basé sur l’idée que les capacités de l’intelligence artificielle collectent beaucoup plus d’intelligence, précisément, en temps réel, et la transmettent beaucoup plus rapidement aux décideurs.

Une autre question discutée par Richemond-Barak était la possibilité d’améliorer l’IA des soldats.

On s’attend à ce qu’au moins certains soldats reçoivent à l’avenir des combinaisons et de l’équipement qui les aideront à supporter la perte de sang, la fatigue extrême et les températures extrêmes.

L’intelligence artificielle en temps de guerre peut également être utilisée pour aider directement les civils, a expliqué Richemond-Barak.

Il a déclaré que l’intelligence artificielle peut être utilisée pour identifier plus rapidement où se trouvent les civils dans une zone de guerre, quel danger ils courent face aux impacts secondaires de la guerre et qui peut le mieux sauver ceux qui ont besoin d’être secourus.

En outre, l’IA peut être utilisée pour mieux calculer et développer des stratégies pour répondre aux besoins humanitaires des civils bloqués dans ou à proximité des zones de guerre, afin de fournir de la nourriture, de l’eau et d’autres plus efficacement et plus précisément. les ressources dont les civils ont besoin pour survivre jusqu’à ce que l’ordre soit rétabli.

L’intelligence artificielle pourrait également être utilisée pour identifier les zones inondées et les routes impraticables afin d’aider les civils à éviter ces situations, a-t-il déclaré au Magazine.

Cependant, l’aspect le plus controversé de la guerre dont Richemond-Barak a discuté avec le Magazine était probablement la question de l’intégration de l’IA dans la chaîne de commandement militaire.

Une fois ce nombre ouvert, la question devient de savoir comment équilibrer les capacités de l’intelligence artificielle, qui sont supérieures à l’homme, avec le jugement humain, qui, au moins à ce jour, reste supérieur à l’intelligence artificielle pour répondre à des scénarios inattendus et être capable d’improviser.

Elle a demandé si l’intelligence artificielle pouvait être placée sous le commandement direct de petits ou grands groupes de troupes ou de véhicules, si l’intelligence artificielle pouvait servir de complément aux commandants humains ou si l’intelligence artificielle ne resterait qu’une ressource technique utilisée par commandants humains quand ils le jugent bon.

La directive militaire qui proclame les zones d’opérations dans lesquelles l’intelligence artificielle peut prendre le relais?

Alors que les détracteurs de l’intelligence artificielle craignent qu’une erreur de jugement de l’intelligence artificielle, le fait qu’elle soit piratée ou une erreur technique peut conduire à des armes dirigées par l’intelligence artificielle vers une tuerie massive et rapide de civils, Richemond-Barak a suggéré que l’intelligence artificielle pourrait être programmée pour ne jamais attaquer certaines cibles marquées.

Entrant dans l’arène de la lutte contre le terrorisme, le directeur de l’Institut international de lutte contre le terrorisme d’IDC, Boaz Ganor, a discuté lors de la même conférence les nouvelles capacités que la combinaison de l’intelligence artificielle et du big data ouvrait pour Contrecarrer les plans terroristes.

Ganor a cité M. de la Shin Bet (Agence de sécurité israélienne), qui a déclaré:

 » Dans le monde de l’intelligence, la clé pour créer une recherche pertinente, en utilisant les méthodes et les outils du Big Data, est d’être conscient de la possibilité de poser de nouvelles questions . »

Un point frappant a été l’idée que «les données produisent non seulement des différences quantitatives qui nous permettent de répondre à de vieilles questions à l’aide de nouveaux outils, mais créent également une nouvelle réalité dans laquelle des questions totalement nouvelles peuvent être posées».

« La réponse aux questions est donnée par un agent du renseignement utilisant une image beaucoup plus sophistiquée et complète de l’ennemi et de l’environnement dans lequel il opère », a déclaré M.

En d’autres termes, Ganor a expliqué que l’intelligence artificielle ne permettait pas seulement d’obtenir des renseignements pour contrecarrer les plans terroristes sur une base quantitative. Au contraire, l’augmentation radicale de la quantité de renseignements disponibles créait également de nouvelles façons qualitatives d’analyser plus en profondeur les renseignements.

Ensuite, Ganor a cité les statistiques du Shin Bet de frustrer environ 500 complots terroristes, qui étaient probablement plus avancés vers l’achèvement, et plus de 1000 attaques potentielles, qui pourraient inclure l’arrestation ou la visite d’individus présentant les premiers signes de Un attaquant probable des réseaux sociaux.

C’est lors de l ‘«Intifada au couteau» de 2015-2016 que le Shin Bet a commencé à utiliser systématiquement Facebook et d’autres plateformes de réseaux sociaux pour anticiper d’éventuels attaquants solitaires.

Il était impossible d’arrêter les attaquants solitaires du loup, souvent des terroristes spontanés ponctuels sans aucun lien avec des groupes terroristes. Ils n’avaient aucune trace de la planification logistique, des achats d’armes ou des communications avec leurs co-conspirateurs à suivre.

Dans ce vide, le Shin Bet a ouvert la voie à l’utilisation d’une variété d’algorithmes , le suivi des messages des médias sociaux et d’autres informations qu’il a recueillies sur certaines personnes (par exemple, les personnes qui avaient des parents impliqués dans le terrorisme ou tués par Les FDI peuvent être considérées comme des risques majeurs) pour anticiper les attaques avant qu’elles ne se produisent.

Certains assaillants détenus ont admis qu’ils allaient attaquer ou étaient susceptibles de le faire.

Mais Ganor a ensuite posé une question cruciale de suivi à ce succès apparent: est-ce que des milliers de suspects et un très grand nombre de détenus sont une mesure adéquate pour le succès et l’efficacité du renseignement?

Alternativement, il a averti que les chiffres élevés du Shin Bet pourraient en fait indiquer « l’utilisation d’un filtre qui est trop large et avec trop de trous ». Essentiellement, Ganor était préoccupé par la pente glissante des attaques «accélérées» en qualifiant faussement certaines personnes de «attaquants potentiels».

Au lieu de lancer un raid qui déclencherait toutes sortes de fausses alarmes, l’intelligence artificielle pourrait être canalisée pour attraper les vrais terroristes, a déclaré Ganor, travaillant dur pour s’assurer que les prémisses et les questions de la collecte de renseignements basés sur le renseignement artificielles ne sont pas trop larges.

Il a cité le colonel Y. du renseignement israélien, qui a déclaré: « Selon les renseignements traditionnels, pour toute bonne question, une accessibilité appropriée peut être créée pour révéler les secrets de l’adversaire. »

«À une époque caractérisée par un flot d’informations, nous devons supposer qu’il n’y a pas de question dont la réponse ne peut être trouvée dans les données. L’astuce consiste à savoir comment poser la bonne question à partir des données … et à savoir que lorsque nous n’obtenons pas la réponse, nous devons supposer que nous avons posé la mauvaise question », a poursuivi Y.

L’une des principales préoccupations sur lesquelles Ganor a mis en garde était un scénario dans lequel les scientifiques et les programmeurs «sont incapables d’expliquer les principes directeurs, les processus de travail et les décisions de l’intelligence artificielle, qui sont pris par l’apprentissage automatique. et l’utilisation des mégadonnées.  »

Il a déclaré que cela pourrait arriver lorsque « pour optimiser leur processus de travail, ces systèmes [d’intelligence artificielle] sont susceptibles de changer les directives qui leur sont données ».

Les mégadonnées et l’apprentissage automatique pourraient conduire à «attraper un terroriste avant qu’il ne mène une attaque, mais il n’est pas possible d’expliquer comment il y est arrivé».

Il a de nouveau cité M. de Shin Bet, qui a déclaré: «Dans un monde de vastes données, cela n’a pas de sens et il n’est pas nécessaire d’essayer d’étudier et de caractériser le modèle d’activité de l’objet d’investigation… même si nous ne pouvons pas expliquer le modèle de l’activité de l’objet examiné ».

« Même si nous ne pouvons pas prouver qu’un phénomène donné en dérive, il suffit que l’algorithme trouve une corrélation entre les deux phénomènes pour que nous puissions utiliser cette connexion efficacement », a ajouté M.

En revanche, Ganor a cité Yoelle Maarek, vice-présidente d’Amazon, qui a déclaré: «Ce n’est pas la responsabilité du scientifique de dire que la raison pour laquelle il a obtenu certains résultats est parce que c’est ce que la machine a décidé… Bien sûr, c’est toujours plus important dans le cas des agences de sécurité et de renseignement qui utilisent des algorithmes pour prendre des décisions de vie ou de mort. »

Ganor a déclaré que « malgré le succès de l’utilisation de l’intelligence artificielle et des mégadonnées dans le domaine de la lutte contre le terrorisme, et à la lumière du grand nombre d’arrestations et d’agressions frustrées qui ont eu lieu ces dernières années en Israël, il est nécessaire de développer des lignes directrices pour l’utilisation de l’intelligence artificielle dans la lutte contre le terrorisme ».

Il a déclaré que les lignes directrices devraient être élaborées par une combinaison d’informaticiens, d’experts en sécurité, d’experts en terrorisme, de stratèges, de juristes et de philosophes.

Sur le plan conceptuel et en termes de limitation, il a déclaré que la technologie de l’intelligence artificielle «combinée à des données volumineuses, devrait être traitée comme un moyen de surveillance et d’écoute de masse… L’utilisation de bases de données qui impliquent de compromettre la vie privée des personnes devrait être l’approbation préalable d’un juge et la portée et la nature de la menace terroriste à ce moment-là. »

Il a également préconisé une autre sauvegarde: effectuer des évaluations périodiques et séparées de chaque type de base de données.

En d’autres termes, il serait insuffisant de simplement vérifier comment une base de données ou une plateforme d’intelligence artificielle fonctionne avec une base de données lors de son lancement, sans contrôles de surveillance périodiques, ou contrôles génériques qui ne prennent pas en compte la nature spécifique de la base de données

Il a ensuite déclaré que « l’incrimination des » terroristes potentiels « identifiés grâce à l’utilisation de technologies de données volumineuses ne devrait être envisagée que lorsqu’il existe des preuves supplémentaires à l’appui. »

Tant en ce qui concerne l’utilisation d’Amnesty International que la production de telles preuves supplémentaires, Ganor a averti qu’il était nécessaire d’introduire des garanties pour lutter contre les préjugés culturels et ethniques.

Peut-être plus important encore, Ganor a déclaré que  » l’utilisation de l’intelligence artificielle et de la technologie des mégadonnées pour prévenir le terrorisme devrait être évitée lorsque les résultats des algorithmes ne peuvent pas être expliqués « .

Le nombre d’attaques frustrées soupçonnées d’avoir été perpétrées du fait de l’utilisation de l’intelligence artificielle et de données volumineuses ne doit pas être utilisé pour mesurer le succès et l’efficacité des forces de sécurité.

Bien que GANOR ait souligné les aspects positifs et négatifs de l’intelligence artificielle dans les efforts de lutte contre le terrorisme, et Richemond-Barak a souligné ses avantages sur le champ de bataille, il existe d’autres préoccupations sur le champ de bataille.

En fait, d’une certaine manière, la présentation de Richemond-Barak était une tentative d’équilibrer une discussion sur l’intelligence artificielle et la guerre qui a principalement tourné autour de la campagne de la société civile mondiale pour arrêter les robots tueurs.

La campagne a été lancée en 2013 et, en 2016, une réunion de la Convention des Nations Unies sur certaines armes classiques (CCW) avait créé un groupe de travail spécial pour tenter de parvenir à un consensus sur l’interdiction ou la limitation des systèmes d’armes autonome.

Tous ou la plupart de ces systèmes d’armes autonomes devraient intégrer l’intelligence artificielle.

Dans un article publié à la mi-décembre dans le Bulletin of Atomic Scientists, Neil Renic de l’Institute for Peace Research and Security Policy a analysé si la campagne avait été un échec total.

Renic et certains autres militants ont accusé les États-Unis, la Russie, le Royaume-Uni et d’autres grandes puissances de bloquer toute initiative importante, car la CCW exige un consensus.

En fait, Renic a déclaré que puisque de nombreux pays se perçoivent comme une course aux armements de l’intelligence artificielle, la tendance parmi les pays travaillant sur l’intelligence artificielle et les systèmes d’armes autonomes est d’investir plus de fonds dans de tels systèmes, rien de moins.

L’une des raisons pour lesquelles Renic a déclaré que la campagne n’a pas réussi jusqu’à présent est que « les systèmes d’armes autonomes qui concernent le plus les travailleurs humanitaires n’ont pas encore vu le jour. Il n’y a aucun incident atroce à citer, ni aucun récit moral sur lequel s’appuyer pour défendre la réforme . »

Dans le même temps, Renic a salué la campagne de sensibilisation à certains des dangers de l’intégration de l’intelligence artificielle et des systèmes d’armes autonomes dans les arsenaux militaires.

Il a laissé entendre que cette prise de conscience entraînerait une certaine autoréglementation de l’armée, bien qu’elle soit limitée et moins applicable qu’une convention multilatérale forte.

Selon Renic, au 30 octobre, les pays soutenaient l’interdiction totale des systèmes d’armes autonomes. De plus, bien que la Convention sur les armes classiques soit une impasse pour la campagne, une déclaration franco-allemande début décembre pour développer « un cadre normatif » sur les armes autonomes a été soutenue par des dizaines de ministres des Affaires étrangères.

Il a également noté que le Brésil avait proposé d’accueillir un symposium sur l’interdiction en février 2020.

Par conséquent, on peut dire que la campagne a influencé des aspects de l’opinion mondiale qui se soucient des systèmes d’armes autonomes, mais que les principaux pays impliqués dans le développement de ces systèmes ne veulent pas fixer de limites.

Dans cette conversation, Richemond-Barak et d’autres comme elle soulignent que ces nouveaux systèmes font non seulement référence à un meurtre plus efficace, mais peuvent sauver des vies, à la fois en évitant les erreurs et en se concentrant directement sur le sauvetage des civils.

Cependant, une vision de l’intelligence artificielle et des systèmes d’armes autonomes, il semble que dans un court laps de temps, ils seront profondément enracinés dans les systèmes d’armes classiques de nombreux pays .

Tout cela ferme le cercle de notre héros Petrov, qui a sauvé le monde de l’holocauste nucléaire en 1983.

Apparemment, Petrov n’était pas le seul sauveur. Il existe des cas documentés de fausses alarmes nucléaires des systèmes techniques des États-Unis en 1979-1980 dans lesquels, finalement, les opérateurs humains ont ignoré ce que leurs systèmes technologiques leur disaient.

Il existe donc un risque réel que même les technologies les meilleures et les plus chères, et à notre époque des plus récents systèmes d’intelligence artificielle, fonctionnent mal ou s’activent facilement.

Il y a aussi le risque qu’une fois que les opérateurs humains sont trop habitués à se fier à l’intelligence artificielle, alors, même si les opérateurs humains sont dans la boucle, ils peuvent commencer à sous-évaluer leur intuition humaine et à trop baser leur décision finale sur le recours à une liste de contrôle générique de l’intelligence artificielle.

En d’autres termes, l’intelligence artificielle et les listes de contrôle qui y sont connectées, si elles sont trop automatiques, peuvent décourager la résolution créative des problèmes par l’homme.

En 1983, le principal dirigeant soviétique Yuri Andropov, ainsi que l’état-major, étaient prédisposés à croire le pire des États-Unis et étaient prêts à sauter même par-dessus une petite quantité de renseignements apparemment « objectifs » fournis par leurs systèmes d’alerte d’urgence .

Dans le cas de Petrov, il s’est avéré que la raison de la fausse alarme était simplement que l’algorithme informatique était trop sensible à la réflexion du soleil dans les nuages.

Inscrivez vous au RSS
 
Comment ajouter notre site sur l’écran d’accueil de votre téléphone ?
C'est très simple !
– Pour Android :
Rendez vous sur notre site : https://rakbeisrael.buzz/
Tapez sur le menu du navigateur, en haut, à droite de votre écran (3 points sur Google chrome)
Tapez sur « Ajouter à l’écran d’accueil »
– Pour Iphone :
Rendez vous sur notre site : https://rakbeisrael.buzz/
Cliquez le bouton « Partager » (carré en bas de l’écran, d’où sort une flèche)
Tapez sur « Sur l’écran d’accueil »
Tapez sur « Ajouter »

Pour le partage des articles sur votre site, contactez nous par avance (seul le lien URL est autorisé): [email protected]

Nous respectons les droits d'auteur et faisons un effort pour localiser les détenteurs des droits d'auteur sur les images mais aussi les sources. Si vous avez identifié une photo ou une source sur laquelle vous possédez des droits d'exclusivités, vous pouvez nous contacter et nous ferons le nécessaire pour modifier ou supprimer : [email protected]

Abonnez vous à notre Newsletter à Infos-Israel.News

 

IMPORTANT :

Nous subissons actuellement une censure abusive de notre Page Facebook . Par sécurité nous avons mis en ligne une autre Page de secours, veuillez la liker et la faire connaitre à vos amis et proches au cas ou l'actuelle sera fermée.

infos israel sos netivot cqvc israelchrono rakbeisrael

Pour accéder à tous nos sites sur un SEUL site, rendez vous sur Alyaexpress-News.com !