RADIO(S)

Alerte info
CHANSONS ROUGES INFORMATIONS ET MUSIQUES EN CONTINUE : Musiques rouges, variétés 24h sur 24h et journaux et flashs à 7h, 8h, 9h, 10h, 12h, 13h, 14h, 16h, 18h, 19h, 20h, 21h, 22h, 23h MOSAIK RADIOS : En cliquant sur le logo en bas à droite vous pouvez écouter une autre station du groupe Mosaik Radios : Classik Radio. CLASSIK RADIO VOUS PROPOSE MUSIQUES CLASSIQUES, JAZZ ET FLASHS D'INFORMATIONS : Classik Radio, les plus belles musiques, les plus grands compositeurs, magazines et journaux à 7H, 8H30, 9H, 12H30, 13H, 15H, 17H, 18H30, 19H, 22h EMISSIONS ORIGINALES ET EXCLUSIVES PROPOSEES PAR MOSAIK RADIOS : Diffusées sur Chansons Rouges et Classik Radio : Histoires des fêtes de l'Humanité, la légende...héroïques femmes dans la résistance...histoires des chansons de variétés...histoires des chansons révolutionnaires...125 biographies au service de l'humanité...les bons mots de l'histoire...vies et œuvres des compositeurs et musiciens classiques... LES TRESORS DU CINEMA, LES PLUS BELLES MUSIQUES : Sur Chansons Rouges et sur Classik Radio tous les samedis de 14h à 15h




Eric Schmidt, l'ancien PDG de Google, a pris la parole ce 28 novembre lors d'un sommet organisé par le média Axios, indique Futurism. Celui qui est désormais président de la National Security Commission on Artificial Intelligence a affirmé qu'il n'y avait pas assez de mesures de sécurité en place pour maîtriser la technologie et l'empêcher de causer d'importants dégâts. Schmidt est même allé jusqu'à comparer l'intelligence artificielle (IA) aux bombes atomiques lancées sur le Japon en 1945.
Eric Schmidt, l'ancien PDG de Google, a pris la parole ce 28 novembre lors d'un sommet organisé par le média Axios, indique Futurism. Celui qui est désormais président de la National Security Commission on Artificial Intelligence a affirmé qu'il n'y avait pas assez de mesures de sécurité en place pour maîtriser la technologie et l'empêcher de causer d'importants dégâts. Schmidt est même allé jusqu'à comparer l'intelligence artificielle (IA) aux bombes atomiques lancées sur le Japon en 1945.

Des avis divergents

Pour Schmidt, le pire scénario se produira lorsque les ordinateurs pourront prendre leurs propres décisions. Et à ce moment-là, s'ils sont capables d'accéder à des systèmes d'armements ou d'atteindre d'autres capacités terrifiantes, les machines pourraient réussir à mentir aux humains et agir derrière notre dos.

Pour éviter ce genre de catastrophe, Eric Schmidt a demandé la création d'une organisation non gouvernementale, comme le GIEC, pour aider les responsables politiques à prendre des décisions au moment où l'intelligence artificielle deviendra trop puissante.

Cette prise de position ne convainc pas tout le monde. Yann Le Cun, directeur à Meta et chercheur en intelligence artificielle, a par exemple déclaré en octobre au Financial Times que la technologie était loin d'être assez intelligente pour menacer l'humanité.

«Le débat sur le risque existentiel est très prématuré tant que nous n'aurons pas conçu un système capable de rivaliser avec un chat en matière de capacités d'apprentissage», avait-il affirmé.

Comme souvent, il est difficile de trancher entre ces deux extrêmes. Il semblerait, avance Futurism, que le niveau d'inquiétude que nous pouvons légitimement avoir se trouve quelque part au milieu.

Source Slate

CheckNews

Comment l’armée israélienne utilise l’intelligence artificielle pour bombarder Gaza

Suggestions de cibles, plans d’attaque automatisés : des outils algorithmiques, développés par Tsahal ou des entreprises privées, servent à mener une guerre «totale» à Gaza. D’anciens officiers du renseignement parlent d’une «usine d’assassinat de masse».

L’intelligence artificielle mise au service du bombardement sur la bande de Gaza, l’un des plus destructeurs et meurtriers du XXIe siècle. L’idée, qui appartenait il y a peu à la science-fiction, est désormais une réalité. L’armée israélienne le revendique officiellement dans sa communication.

Le sujet, qui avait déjà intéressé plusieurs titres de la presse israélienne et internationale ces dernières années, a été remis sur le devant de la scène, ces derniers jours, par une longue enquête du média israélo-palestinien de gauche +972, publiée le 30 novembre. En s’appuyant sur des témoignages de militaires et d’ex-militaires, l’article détaille les rouages de la campagne aérienne sans précédent menée par Tsahal sur Gaza depuis le 7 octobre. Et l’usage, fait par l’armée dans ce contexte, d’outils d’intelligence artificielle.

Tsahal revendique une «guerre par IA»

L’utilisation de ce type de technologies dans un cadre militaire par les forces israéliennes a été documentée à plusieurs reprises. En 2021, après la campagne de bombardements menée pendant onze jours sur Gaza, le Jerusalem Post rapportait que Tsahal revendiquait avoir mené cette année-là la première «guerre par IA», mentionnant plusieurs outils algorithmiques destinés à optimiser l’action sur le terrain. Le quotidien israélien nommait alors trois algorithmes, nommés «Alchemist», «Gospel», et «Depth of Wisdom». Un autre système, «Fire Factory», a été décrit en juillet 2023 par le média Bloomberg.

Dans un contexte militaire, l’IA est utilisée pour analyser un très grand nombre de données issues du renseignement (ou de la logistique dans certains cas), et estimer rapidement les effets des différents choix stratégiques possibles. Deux outils, en particulier, seraient utilisés par Tsahal dans le cadre des attaques menées depuis le 7 octobre. Le premier, «Gospel» (ou «Habsora»), vise à suggérer les cibles les plus pertinentes pour une attaque, dans un périmètre donné. Le second, «Fire Factory», sert à optimiser, en temps réel, les plans d’attaques des avions et des drones, en fonction de la nature des cibles choisies. L’algorithme se chargerait de calculer la quantité de munitions nécessaires, d’attribuer les cibles aux différents avions et drones, ou de déterminer l’ordre le plus pertinent pour les attaques.

Une capture d’écran de «Fire Factory», publiée en juillet par Bloomberg à titre d’illustration, montre une carte avec plusieurs cibles entourées, ainsi qu’une frise chronologique sur laquelle se succèdent différentes frappes. A noter que la séquence d’attaque présentée est fictive ou que, tout du moins, un certain nombre d’éléments à l’image ont été altérés avant publication, les noms des cibles en hébreu étant ici fantaisistes (des restaurants de Tel Aviv, par exemple).

Toujours d’après Bloomberg, les systèmes d’intelligence artificielle de l’armée israélienne seraient développés par l’armée elle-même, mais aussi par des acteurs privés, comme l’entreprise du secteur de la défense Rafael, qui fournirait «Fire Factory». A propos d’un outil du même genre (mais d’un autre nom), l’entreprise vante sur son site «un changement de paradigme révolutionnaire dans l’analyse de la situation et le circuit entre le capteur et le tireur, permettant une efficacité, une vitesse et une précision sans précédent».

De 50 cibles par an à 100 cibles par jour

Dans les deux cas, les systèmes sont supervisés (d’après les déclarations de Tsahal cet été à Bloomberg) par des opérateurs humains qui, derrière l’écran, doivent vérifier et approuver tant les cibles que les plans de raids. Dit autrement, ces systèmes ne prendraient pas directement la décision de tirer, bien qu’une partie du processus soit automatisé. Selon des représentants des forces armées israéliennes interrogées par Bloomberg, ces solutions informatiques avaient été élaborées dans l’hypothèse de la conduire d’une «guerre totale» («all-out war»).

D’après le média +972, l’utilisation de ces solutions technologiques explique comment l’armée israélienne a pu bombarder la bande de Gaza à un rythme aussi effréné (15 000 cibles durant les seuls 35 premiers jours de bombardement, selon les chiffres mêmes de Tsahal). De fait, dans un communiqué publié début novembre, les forces armées israéliennes reconnaissaient elles-mêmes que «Gospel» (cité nommément) leur permettait de générer, de manière automatique, «des cibles à un rythme rapide».

Source Libération

Partager