Bienvenue, Invité. Merci de vous connecter ou de vous inscrire.

Auteur Sujet: Les dangers de l'intelligence artificielle pour l'humanité  (Lu 675 fois)

0 Membres et 1 Invité sur ce sujet

Hors ligne Parvaneh

  • Immortel
  • *****
  • Messages: 5450
    • Voir le profil
Les dangers de l'intelligence artificielle pour l'humanité
« le: février 07, 2015, 01:37:36 pm »
Bill Gates met en garde contre la «superintelligence» artificielle
 
Le 30/01/2015


Après Stephen Hawking et Elon Musk, Bill Gates s'inquiète des risques que fait peser l'intelligence artificielle sur l'humanité.


Bill Gates répondait jeudi aux questions des internautes du site Reddit lors d'une session d'AMA (pour Ask Me Anything, «demandez-moi n'importe quoi», ndlr). Interrogé sur la «menace» que représente l'intelligence articifielle, il répond: «Je suis dans le camp de ceux qui se sentent préoccupés (...)». Bill Gates explique que «dans quelques décennies, les progrès de l'intelligence seront tels que ça deviendra un problème». Il aurait donc peur d'un scénario à la Terminator où les machines prennent le dessus sur leurs créateurs, les hommes. Cela pourrait prêter à sourire si Bill Gates n'était pas le fondateur de Microsoft. Et surtout, si d'autres, avant lui, n'avaient pas exprimé leurs propres craintes.

Elon Musk, cofondateur de PayPal, mais aussi des start-up technologiques SpaceX et Tesla Motors, avait publié en août un tweet comparant l'intelligence artificielle aux bombes atomiques, estimant qu'elle était «potentiellement plus dangereuse».

L'homme est profondément pessimiste et publie, quelques jours plus tard, un tweet philosophique où il s'interroge sur le destin de l'humanité: «Espérons que nous ne sommes pas seulement l'amorce biologique d'une superintelligence numérique. Malheureusement, c'est de plus en plus probable.» Il craint tellement l'intelligence artificielle qu'il a récemment accordé un don de dix millions de dollars à la Future of Life Institute. L'organisation non lucrative américaine appelle à la vigilance concernant les progrès technologiques et leur impact sur l'homme.
Bill Gates appartient donc à ce camp qui compte aussi dans ses rangs le brillant astrophysicien Stephen Hawking. Lors d'un entretien à la BBC en décembre dernier, le Britannique explique que «l'intelligence artificielle pourrait mettre fin à l'humanité». «Une fois que les hommes auraient développé l'intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite, développe-t-il. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés.»

Des critiques adressées à Google?

Pour les Echos, «ces inquiétudes et ces alertes semblent se diriger vers le géant d'Internet, Google, qui continue d'acquérir des sociétés spécialisées (...) dans l'intelligence artificielle». Mais l'apocalypse n'est pas pour demain. Nous en sommes encore à l'ère de l'IA faible, rappelle Les Echos. Les robots d'aujourd'hui simulent une intelligence à partir d'algorithmes. Ils ne sont pas encore dotés d'une conscience.

Bill Gates pourra dire, si une telle technologie émerge un jour, qu'il avait prévenu. Mais il devra aussi reconnaître qu'il y a contribué, en tant que pionnier de la micro-informatique et fondateur de Microsoft. Il développe même un nouveau projet en collaboration avec son ancienne entreprise: «Personal Agent», un logiciel qui «se souviendra de tout et vous aidera à revenir en arrière et à retrouver des choses», explique Bill Gates. Un assistant personnel artificiel...   :angry:


http://www.lefigaro.fr/sciences/2015/01/30/01008-20150130ARTFIG00452-bill-gates-met-en-garde-contre-la-superintelligence-artificielle.php
"Affirmons notre fierté d'être Français (et je rajouterais Iraniens), car on ne bâtit rien sur l'auto-dénigrement"

Hors ligne Parvaneh

  • Immortel
  • *****
  • Messages: 5450
    • Voir le profil
Re : Les dangers de l'intelligence artificielle pour l'humanité
« Réponse #1 le: juillet 29, 2015, 04:25:55 pm »
L’intelligence artificielle à but militaire cible d'une attaque en règle


29/07/2015 (france24.fr)

Plusieurs milliers de chercheurs et personnalités de renom, dont le célèbre physicien Stephen Hawking, ont lancé un appel, mardi, pour mettre en garde contre les dangers de l’intelligence artificielle utilisée à but militaire.

Les progrès de l’intelligence artificielle inquiètent les grands cerveaux. Dans une lettre ouverte, publiée mardi 28 juillet, plus de 12 000 personnes, dont de très nombreux chercheurs en intelligence artificielle et des personnalités de renom, ont lancé un appel pour l'interdiction des armes offensives autonomes, capables de "choisir et frapper des cibles sans intervention humaine".

Parmi les signataires les plus célèbres, Stephen Hawking, le plus célèbre des physiciens, et Elon Musk, roi des voitures électriques Tesla et pionnier du tourisme spatial, qui avaient déjà exprimé leurs inquiétudes à ce sujet par le passé. S’y ajoutent l’intellectuel Noam Chomsky, le prix Nobel de physique Frank Wilczek, le cofondateur d'Apple, Steve Wozniak, ou encore le cofondateur de Skype, Jaan Tallinn.

Tuer sans contrôle humain

Le texte, publié durant la Conférence internationale sur l'intelligence artificielle (IJCAI) à Buenos Aires, sonne comme une mise en garde : "La technologie de l'intelligence artificielle a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir. (...) Elles ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires."

Ces robots tueurs, qui pourraient prendre la décision de tuer sans contrôle humain, à la différence des drones télécommandés pour lesquels une intervention humaine reste nécessaire, inquiètent de plus en plus l'ONU, les scientifiques et défenseurs des droit de l'Homme. La principale crainte : que ces robots ne soient pas capables de faire la différence entre civils et combattants ou programment des attaques aux effets disproportionnés sur les populations.

D'un point de vue militaire, ces armes du futur présentent l'avantage de réduire le risque de pertes humaines sur le champ de bataille, mais elles "abaissent aussi le coût d'un engagement au combat" et laissent présager une nouvelle course aux armements, relèvent les signataires. Contrairement aux armes nucléaires, dénoncent les chercheurs dans leur lettre, celles-ci "ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir (...) Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs (...) et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique, etc."

Responsabilités

Mais les signataires rappellent que l’intelligence artificielle peut être une chance si elle est bien orientée : elle "offre un grand potentiel pour le bénéfice de l'humanité". Pour cela, elle ne doit pas être "discréditée", notamment aux yeux du grand public, par la conception d'armes offensives, insistent-ils.

Les signataires ont envoyé leur mise en garde à l'ONU alors qu’aucun cadre juridique adapté n’existe à ce jour. En avril, l’ONG Human Rights Watch avait justement dénoncé "l’absence de responsabilité légale" des robots tueurs.

Une interdiction d'armes qui n'existent pas encore ne serait pas sans précédent. En 1998, les lasers aveuglants avaient été interdits avant même d'avoir été développés à grande échelle.
"Affirmons notre fierté d'être Français (et je rajouterais Iraniens), car on ne bâtit rien sur l'auto-dénigrement"

Hors ligne Parvaneh

  • Immortel
  • *****
  • Messages: 5450
    • Voir le profil
Re : Les dangers de l'intelligence artificielle pour l'humanité
« Réponse #2 le: octobre 11, 2017, 01:24:15 pm »
UN MONDE SANS TRAVAIL ?
Documentaire (France - 2016)
Un monde sans travail ? -

Mercredi 11 octobre sur FRANCE 5 à 20:50 le programme "Un monde sans travail ?" produit en France en 2016. D'une durée de 70 min

Le plein-emploi apparaît comme le symbole d'un passé révolu. Les machines «intelligentes», plus fiables et moins coûteuses que les humains, sont en passe de nous remplacer tandis que l'essor des algorithmes contribue à une automatisation croissante du travail.

La prochaine cible de cette quatrième révolution industrielle : les cols-blancs, le cœur de la classe moyenne. «Un monde sans travail ?» mène l'enquête sur cette fin annoncée du «travail». En France, en Belgique, en Suisse, dans la Silicon Valley et sur la côte Est des États-Unis, ce film part à la rencontre de chercheurs, d'entrepreneurs ou de lanceurs d'alerte au cœur de ce nouveau monde.
"Affirmons notre fierté d'être Français (et je rajouterais Iraniens), car on ne bâtit rien sur l'auto-dénigrement"

Hors ligne Parvaneh

  • Immortel
  • *****
  • Messages: 5450
    • Voir le profil
Re : Les dangers de l'intelligence artificielle pour l'humanité
« Réponse #3 le: février 21, 2018, 05:01:20 pm »
Une vision terrifiante de l'intelligence artificielle

Par  Marc Cherki  Le Figaro  Publié le 21/02/2018


Un rapport d'experts internationaux met en garde contre la multiplication des risques liés aux futurs outils numériques.

Il est encore temps d'agir pour limiter les risques nouveaux engendrés par l'intelligence artificielle (IA). Telle est la seule conclusion optimiste d'un rapport réalisé, en un an, par 26 chercheurs et experts d'universités, d'organisations non gouvernementales et d'associations anglo-saxonnes. Intitulé «L'utilisation malicieuse de l'intelligence artificielle: prévision, prévention et atténuation» («The malicious use of AI: forecasting, prevention and mitigation»), ce rapport dresse un tableau apocalyptique des dangers de l'intelligence artificielle et de l'apprentissage automatique.

De nouvelles armes numériques seront à la portée d'États voyous ou totalitaires, de cybercriminels et d'organisations terroristes. Surveillance des populations, influence sur des élections démocratiques, utilisation de réseaux de drones et de robots pour des attaques terroristes et même exploitation des failles de systèmes d'intelligence artificielle sont quelques-uns des dangers identifiés. «Il y a de sérieux risques si la technologie est utilisée à de mauvaises fins», résume l'Electronic Frontier Foundation, une association américaine fondée pour la défense de la liberté de parole, qui a contribué au rapport.

Des attaques mieux ciblées
Les experts ont dressé la liste «des attaques que nous verrons bientôt si les défenses adéquates ne sont pas développées». Il y aura une expansion des risques actuels, de nouveaux dangers et un changement dans leur nature et leur ampleur, notamment car «l'utilisation croissante de l'IA sera particulièrement efficace, finement ciblée, difficile à attribuer et pourra exploiter les vulnérabilités des systèmes intelligents», précise le rapport.

Ce sera par exemple, le cas de l'hameçonnage ciblé (ou «spear fishing»). Il s'agira d'une version améliorée du «fishing», qui proposera au destinataire naïf d'un message électronique personnalisé de communiquer ses mots de passe ou de compléter des questionnaires, première étape avant une éventuelle usurpation d'identité. C'est assez classique. Mais l'attaque sera mieux ciblée car ce futur piratage pourrait s'adapter précisément aux types de consommation et aux habitudes de chaque destinataire (sa banque, son travail, sa situation familiale, etc.), ce qui rendrait l'attaque plus efficace.

Risque de déclencher des guerres?
L'un des risques les plus sérieux serait celui que l'IA ferait peser sur des démocraties. «Nous avons déjà vu comment les gens se servaient de la technologie pour essayer d'interférer dans les élections», a indiqué à l'AFP Seàn Ó hÉigeartaigh (sic), directeur exécutif d'un centre de recherches à l'université Cambridge (Grande-Bretagne). Et d'ajouter, «si l'IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à identifier, cela pourrait poser de gros problèmes de stabilité politique et contribuer, peut-être, à déclencher des guerres».

Ces experts relaient ainsi des inquiétudes déjà formulées ces dernières années par des scientifiques, comme le physicien Stephen Hawking, et des entrepreneurs, tel Elon Musk. Ce dernier est, par ailleurs, donateur d'au moins deux des institutions contributrices du rapport, «Future of life institute» qui a apporté une bourse pour la rédaction du document, et OpenAI, une ONG californienne que le magnat a cofondée. Il est à noter qu'aucune institution française n'a participé à ce travail, malgré la réputation mondiale des chercheurs nationaux dans l'IA.


http://www.lefigaro.fr/sciences/2018/02/21/01008-20180221ARTFIG00228-une-vision-terrifiante-de-l-intelligence-artificielle.php
"Affirmons notre fierté d'être Français (et je rajouterais Iraniens), car on ne bâtit rien sur l'auto-dénigrement"

Hors ligne Parvaneh

  • Immortel
  • *****
  • Messages: 5450
    • Voir le profil
Re : Les dangers de l'intelligence artificielle pour l'humanité
« Réponse #4 le: avril 05, 2018, 02:01:53 pm »
Des milliers de salariés de Google dénoncent un projet d'IA à des fins militaires


Par   Journaliste Figaro Marius François   Publié le 05/04/2018


Dans un mouvement de révolte assez rare, plus de 3.100 des 72.000 employés de la firme ont écrit à leur PDG pour contester le projet Maven, un programme d'intelligence articielle aux contours flous en collaboration avec le Pentagone.

Les questions d'éthiques planent au-dessus des géants d'Internet. Si Facebook tente de s'extraire de la tourmente du scandale Cambridge Analytica, Google n'est pas en reste. La firme de Mountain View fait face à une mutinerie. Selon le New York Times, une pétition diffusée en interne a déjà collecté plus de 3.100 signatures. Son combat? Demander le retrait du projet Maven, en collaboration avec le Pentagone. Ce programme de recherche, basé sur l'intelligence artificielle, a pour objectif l'analyse d'images vidéo par l'armée afin de faire de la surveillance et planifier des frappes par drones.

Google a annoncé au site Gizmodo début mars sa participation au projet Maven. Selon le Wall Street Journal, le programme lancé en avril 2017 bénéficie d'un budget d'au moins 7,4 milliards de dollars. L'idée est de donner au Pentagone un accès à TensorFlow, un système de deep learning. Basé sur une technologie particulièrement complexe, il permet d'analyser des milliers d'images afin d'isoler, identifier et comparer des portions d'image similaires. Sur des zones de conflits, l'armée américaine pourrait donc détecter automatiquement des véhicules ou des individus à l'aide des images aériennes. À partir de cela, des frappes chirurgicales par drones pourraient être déclenchées. Selon des propos rapportés par Gizmodo, le porte-parole de Google a affirmé cependant que la technologie ne serait employée «qu'à des fins non-offensives».

Les employés de la firme ne sont pas convaincus et craignent les conséquences de cette collaboration avec le Ministère de la Défense américain. «Nous pensons que Google ne devrait pas être impliqué dans des activités guerrières» explique le document interne adressé à Sundar Pichai, PDG de Google. «Le projet va irrémédiablement salir l'image de marque de Google et son attractivité auprès des talents» ajoutent les signataires.

Une note du Ministère américain de la Défense présentant le projet à son lancement reste très évasive quant aux implications d'une telle technologie: le but affiché est d'«intégrer plus efficacement l'intelligence artificielle et l'apprentissage automatique à travers les opérations pour maintenir nos avantages face à des adversaires de plus en plus compétents».

Des technologies au service de l'armée, Google avance en terrain miné
Les dirigeants de Google le savent, mettre les technologies de pointe au service de l'armée «soulève des inquiétudes légitimes». Cependant, l'entreprise ne veut pas céder de terrain sur ce marché. Les collaborations entre la Défense américaine et la firme californienne existent depuis déjà plusieurs années.

Google avait annoncé le 13 décembre 2013 l'acquisition de Boston Dynamics, entreprise spécialisée notamment dans la robotique à usage militaire. La société avait développé l'AlphaDog, en partenariat avec la Defense Advanced Research Projects Agency (DARPA), un chien robot capable d'accompagner des soldats sur le terrain pour porter du matériel. Le projet avait été testé en conditions réelles avant d'être réformé. La raison avancée pour ce retrait est l'utilisation d'un moteur à essence jugé trop bruyant pour les missions sur le terrain. Boston Dynamics dit travailler à l'amélioration de cette aide précieuse pour l'armée.

Alphabet, la holding qui chapeaute Google, a néanmoins préféré se séparer de la société jugeant les retours sur investissement lointains et incertains. Cette décision s'explique également par les peurs suscitées par les dernières vidéos sorties par la société. Parmi elles, celle d'Atlas, un robot humanoïde capable, entre autres, de résister à des pressions extérieures en gardant l'équilibre et de se relever. De profondes inquiétudes ont fait surface quant aux progrès de la robotique et à l'emploi de telles technologies sur les missions.

«Nous n'allons pas commenter cette vidéo parce qu'il n'y a pas grand-chose à ajouter et parce que nous ne voulons pas répondre à la majorité des questions qu'elle soulève» avait indiqué Courtney Hohne, la directrice de la communication de Google X (un laboratoire de recherche), dans une note interne révélée par Bloomberg. Boston Dynamics a finalement été racheté par le groupe japonais SoftBank en juin 2017.

S'ils sont peu mis en avant, les liens entre Google et l'armée existent bel et bien. Eric Schmidt, président du conseil d'administration d'Alphabet jusqu'en décembre 2017, est membre depuis 2016 d'un comité spécialisé du Pentagone. Ce dernier étudie les apports des innovations technologiques des entreprises de la Silicon Valley pour la Défense des États-Unis. Même si Eric Schmidt a quitté ses fonctions dirigeantes, il conserve un rôle de «conseiller technique sur la science et la technologie» pour Google.


http://www.lefigaro.fr/secteur/high-tech/2018/04/05/32001-20180405ARTFIG00153-des-milliers-de-salaries-de-google-denoncent-un-projet-d-ia-a-des-fins-militaires.php
"Affirmons notre fierté d'être Français (et je rajouterais Iraniens), car on ne bâtit rien sur l'auto-dénigrement"