Merci de vous connecter ou de vous inscrire.

Connexion avec identifiant, mot de passe et durée de la session

Auteur Sujet: Fil généraliste IA, robots, drones: Au delà de l'intelligence humaine  (Lu 39334 fois)

0 Membres et 1 Invité sur ce sujet

Gurney

  • ****
  • Hors ligne Hors ligne
  • Messages: 407
Re : Fil généraliste IA, robots, drones: Au delà de l'intelligence humaine
« Réponse #210 le: 07 Novembre 2016 à 12:46:17 »

Salut DecemberTen

Je fais des recherches la plupart du temps, et je crois poster en grande majorité du contenu inédit sur le forum, prenant souvent même la peine de traduire moi-même des articles étrangers.
Il est cependant vrai que sur ce coup, j'ai posté un doublon et je m'en excuse.
J'avoue d'ailleurs que malgré ma familiarité avec le forum, je découvre à l'instant cette section...

Je ferai de mon mieux à l'avenir.
IP archivée

DecemberTen

  • Administrateur
  • *******
  • Hors ligne Hors ligne
  • Messages: 7563
Re : Fil généraliste IA, robots, drones: Au delà de l'intelligence humaine
« Réponse #211 le: 07 Novembre 2016 à 13:41:53 »

Ok Gurney, ça arrive, pas de problème.

DecemberTen

  • Administrateur
  • *******
  • Hors ligne Hors ligne
  • Messages: 7563
Re : Fil généraliste IA, robots, drones: Au delà de l'intelligence humaine
« Réponse #212 le: 10 Novembre 2016 à 18:02:30 »

L'intelligence artificielle 'savait' que Trump allait l'emporter

Un mini-logiciel autodidacte avait prévu que Trump allait battre Clinton.
Ce n'était pas le fruit du hasard, semble-t-il, puisque MogIA avait fait de même lors des trois élections présidentielles précédentes.

MogIA a fait ce que les cabinets d'analystes et autres instituts de sondage n'ont pu faire: estimer correctement le résultat des élections présidentielles américaines.
Un pur hasard?
Peut-être. Mais sachez quand même que lors des trois élections présidentielles précédentes et lors des primaires tant côté républicain que côté démocrate, la boule de cristal de MogIA avait mis dans le mille.

Cette boule de cristal de MogIA se compose en fait de quelque 20 millions de points de données provenant de plates-formes en ligne aussi populaires que Google, YouTube et Twitter.
"La plupart des algorithmes souffrent des préjugés de leurs développeurs, mais notre système, lui, apprend de l'environnement qu'il suit et développe sur cette base ses propres règles, sans ignorer la moindre donnée", a récemment déclaré Sanjiv Rai à la station d'actualité américaine CNBC.
...

Source et suite

J'ai tout de même vérifié et trouvé cet article dans  l'Echo. Effectivement...

CharlyAlverda

  • ****
  • Hors ligne Hors ligne
  • Messages: 101

"Deux IA ont communiqué dans une langue indéchiffrable par l’homme."

Ah oui ? Ben non !  ;D Passionné de systèmes experts, je me doutais bien que la paranoïa ambiante, due au besoin effréné de sensations fortes dans un confort climatisé, était en cause, avec bien sur l'inénarrable J. Attali sur le front ! Je donne l'information véritable, avec la note illustrative.

(** noter qu’il est beaucoup plus honnête de dire, comme dans la publication, “réseaux de neurones” plutôt qu’ "intelligences artificielles”, car effectivement les artefacts cognitifs de l’expérience ne sont pas plus qu’un simple réseau de neurones artificiels et ne sont compétents que pour cette expérience. On est loin du sous-entendu beaucoup plus cognitif que véhicule le terme IA)

https://medium.com/@AymericPM/non-deux-ia-nont-pas-invent%C3%A9-en-2016-une-langue-ind%C3%A9chiffrable-1f784fccfc5e
IP archivée

Capitaine Renard

  • *
  • En ligne En ligne
  • Messages: 860
  • flump'

Une très intéressante intervention de Sarah sur une antenne de Morgane à propos de l'évolution des robots. Je me permets de résumer ici son message. Sarah expliquait l'approche psychologique de Miguel Benasayag.

_______________________________________

Qu'est-ce qui différencie le Robot de l'Humain ?

D'après Miguel Benasayag il y a 2 types d'organisations du traitement de l'information :

Artefact et Organisme.

Dans le cas d'une organisation de type Artefact, la réponse à un stimuli issu de l'environnement est toujours le fruit d'une programmation en amont et qui implique toujours le même résultat. Exemple :

« Si le ciel est bleu > Cocher bleu » sera la seule réponse possible.

Dans le cas d'une organisation de type Organisme, la réponse à un stimuli issu de l'environnement n'est pas le fruit d'une programmation mais d'un système considéré comme indépendant par la somme de tâches multifactorielles qu'il traite. C'est ce qui fait qu'une organisation de type Organisme est un système de traitement global de l'information. Par cette opération complexe surgissent à la fois les facteurs de l'aléa et de la faiblesse.

La complexité des rapports humains en est une bonne illustration.

Concernant l'évolution biologique et psychologique Miguel Benasayag distingue 3 façons d'aborder le réel :

1 – Perception simple (organismes primitifs que l'on pourrait rapprocher des robots comme par exemple les végétaux simples)
2 – Aperception (organismes un peu plus évolués capables de s'intégrer dans un contexte pour anticiper certains événements par un minimum de conscience de l'environnement en tant que traitement de l'information – Capacité d'anticipation – Comme par exemple comportement de fuite face à des facteurs indiquant la présence potentielle d'un prédateur)
3 – Conscience (être capable de se voir soi-même penser – L'Humain)

Ce serait la conscience qui différencierait l'Humain du Robot. Un Robot humanisé, tous degrés de ressemblance compris, même disposant d'une autonomie de penser, n'aurait pas la capacité de recul sur lui-même pour se voir penser. Le Robot ne serait pas capable de conscience. Chez l'Humain existent des comportements automatisés, induits volontairement (éducation ; manipulation mentale ; etc.) ou non (pathologies mentales; stress ; etc.). Ce type de comportements automatisés peuvent être réduits à l'idée de l'Humain robotisé (comme par exemple dans les comportements terroristes).

Par contre l'Humain en faisant acte de conscience est toujours potentiellement capable de se rendre compte qu'il agit par automatisme et de tenter de se corriger.

Le Robot lui n'a pas conscience qu'il est humanisé.

(Il y a d'autres points d'intérêts développés par Sarah que je présenterai un peu plus tard).
« Modifié: 05 Juin 2017 à 20:34:44 par Capitaine Renard »
IP archivée

Capitaine Renard

  • *
  • En ligne En ligne
  • Messages: 860
  • flump'

L'Humain à la naissance est programmé pour l'empathie. (Neurones-miroirs / Un nourrisson sourit à sa mère qui lui sourit / Egalement chez les mammifères. Les jeunes imitent les adultes et apprennent les comportements de survie).

La complexité du type Organisme, par la tâche multifactorielle qu'elle développe, permet une relativité d'interaction à l'environnement grandissante et une complexification des comportements (animaux sociaux).
C'est ce qui assure la survie des groupes de type Organisme.  Cette évolution permet une meilleure adaptabilité. Couplée avec la façon numéro 3 d'aborder le réel (conscience) l'Humain est un aboutissement en matière d'adaptation (naissance des civilisations).

Les faiblesses issues de la complexité des comportements Humains, les aléas naissants de cette même complexité, s'avèrent sur le long terme un facteur majeur d'évolution en terme de société (Histoire ; Science ; Art ; etc.)

Concernant son évolution, l'empathie est le propre de l'Humain.

La tâche d'un robot, d'après Miguel Benasayag est imitative. Un robot imite et imitera toujours l'Humain, il n'éprouve pas d'empathie mais ne fait qu'imiter l'empathie. Le Robot ne prend pas en compte les aléas et les faiblesses qui sont la marque de la complexité Humaine.

Cette différence fondamentale doit être prise en compte dans nos sociétés modernes qui érigent la technologie comme une religion. L'interpénétration du phénomène Robot-faussement-Humain et d'une société devenant dépendante de la robotique présage un changement où le type Artefact et le type Organisme, du fait d'une interaction constante, sont susceptibles de rentrer dans un rapport de force qui pourrait à terme révolutionner complètement nos vies.


Une société robotisée pourrait-elle advenir ?

Ici il est question de la destruction possible du lien empathique dans le rapport Robot-Humain.

Un type Organisme ne pourrait pas l'emporter sur un type Artefact :

L'empathie n'étant en interaction qu'avec une imitation d'empathie, l'Humain serait pris en défaut et finirait par imiter les comportements automatisés propres au Robot.

Cette perte d'empathie pourrait s'actualiser à un niveau social.

L'Histoire montre clairement qu'une société où le lien empathique se délite s'effondre. Sur l'Île de Pâques par exemple, l'esprit de compétition a conduit les populations autochtones à une folle surexploitation des ressources qui a précipité finalement leur perte.

L'Humain ne pourrait donc pas toléré une société complètement robotisée.



(Je finirais l'intervention de Sarah un peu plus tard et je donnerais mon avis à ce propos).

Capitaine Renard

  • *
  • En ligne En ligne
  • Messages: 860
  • flump'

Tout d'abord je pense qu'il est utile de préciser que les comportements automatiques ne sont pas forcément négatifs. Les réflexes, le langage, l'écriture, l'hygiène, l'apprentissage, l'art, la politesse, la vie en commun, et bien d'autres compétences Humaines nécessitent l'acquisition de certains automatismes. L'automatisme permet à la fois une économie d'énergie, une fluidité et une amélioration des actions qu'il développe. En outre un comportement acquis de façon automatique permet d'être plus attentif au domaine qu'il ouvre et donne accès à de nouvelles possibilités de progression. C'est ce qu'on désigne couramment comme le fait  de « savoir faire » quelque chose.

Un jongleur qui par exemple aurait besoin de consulter son manuel de jonglerie à chaque lancer de balle pour savoir comment procéder ne serait pas sorti d'affaire.

Là où le comportement automatique pose problème c'est quand il n'est plus adapté dans le contexte où il s'acte ou encore s'il est induit de façon pernicieuse à l'encontre de celui qui en est victime.

Conduire à gauche en Angleterre n'est pas de tout repos quand on est habitué à conduire à droite. Inciter à des comportements addictifs via la publicité est répréhensible.

Comme l'explique bien Sarah, les comportements autonomes permettent de prendre conscience des automatismes. Le comportement autonome conscient Humain permet de résorber les comportements automatiques qui ne sont plus adaptés au contexte et qui posent problème. Dans cette optique la robotique aurait un impact particulièrement dommageable si les comportements automatiques venaient à étouffer complètement les comportements autonomes. On imagine justement des perspectives assez flippantes abondamment illustrées dans les dystopies que décrit (prévoit ?) la science-fiction, quand il n'est pas question d'un effondrement pur et simple de la civilisation.

Ceci étant précisé j'aimerais aller un peu plus loin dans la réflexion.

Contrairement à Sarah, je ne pense pas qu'un robot (ou un logiciel informatique) soit incapable de traiter et d'analyser son propre comportement et donc incapable d'auto-estimer son efficacité ni qu'il soit incapable de s'auto-corriger.

Je l'ai déjà précisé sur ce fil :

Les travaux sur la cybernétique sont corrélés à de nombreux domaines dont celui tout particulier de la psychologie.

La boucle d'information rétroactive [>> « Boucle d'Information Rétroactive » (wiki)] ou « Rétroaction » est un système qui redéfinit les processus d'adaptations à partir d'une information donnée. La connaissance de l'environnement et la meilleure façon d'agir dessus dans un but donné se fait à partir du traitement de l'information.

Le savoir (ou « savoir faire ») n'est pas une simple accumulation d'information. Une nouvelle information redéfinit le système entièrement et vient impacter la valeur et le classement des informations déjà connues par le système.

Au sens commun c'est ce que l'on désigne dans le concept d'expérimentation. Le vivant n'est pas statique.

« Une nouvelle information redéfinit le système entièrement et vient impacter la valeur et le classement des informations déjà connues par le système ». Je souligne. En cybernétique c'est ce qui définit la capacité d'autonomie que ce soit pour les systèmes de traitement d'information organiques ou artificiels. Cette capacité n'est pas étrangère au Robot.


Je pense qu'en réalité la problématique que pose Miguel Benasayag devrait plutôt se poser en terme de degré d'efficacité de cette boucle d'information rétroactive :

Pour lui, c'est bien la non-capacité du Robot à analyser son propre comportement qui le différencie de nous. Autrement dit cette différence n'est qu'une différence technique.

Hors la capacité d'auto-évaluation existe déjà. Savoir si un robot va finalement parvenir à imiter parfaitement un Humain est une question d'effectivité de cette boucle d'information rétroactive.

Dès lors, dans le cas d'une gémellité parfaite Robot-humanisé / Humain, où le robot atteindrait une capacité d'auto-évaluation égale à celle de l'Humain, je ne pense pas que la théorie de Miguel Benasayag reste vraie.

La problématique se réduit donc, à mon avis, à savoir si la boucle d'information rétroactive peut ou non atteindre le degré de complexité Humaine.

(je continuerais ma réflexion plus tard)
« Modifié: 09 Juin 2017 à 19:51:23 par Capitaine Renard »
IP archivée

Capitaine Renard

  • *
  • En ligne En ligne
  • Messages: 860
  • flump'

J'illustre un exemple de Boucle Rétro-Active volontairement non robotique pour mieux expliquer de quoi il s'agit et comment en fait la science s'inspire souvent de la Nature.

Le cas du réseau de fourmis est célèbre. Chaque fourmi dispose d'informations à traiter très simples sur le mode binaire oui/non.

Je propose le schéma suivant :

Reconnaissance de l'information
- Ennemi
- Nourriture
- Rien du tout
- Amie

Comportement
Question / Réponse / Continuation ou Changement éventuel de comportement

Boucle d'information rétro-active générale chez la fourmi
A - Changement comportement oui / non ? (nouvelle information?)
B - Nouvelle information = (Ennemi ? Nourriture ? Amie ?) + Hiérarchisation de l'information = (Valeur hiérarchique = 3 – Ennemi / 2 – Nourriture / 1 – Amie)
C – Comportement à adopter (3 – Alerte et attaque / 2 – Ramener au nid / 1 – Transmission d'une nouvelle information (type 3-2-1) ? Continuer
(0) ?
D – Le comportement en cours est-il valide par rapport à l'information qu'il concerne ? [Exemple / Un ennemi (3) mort se transforme en Nourriture (2)] + Rétro-transmission de l'information sur les amies croisées [Information ennemi (3) annulée / Information Nourriture (2) activée]
E – Retour en A

(Notez qu'il existe une rétroaction pour chacune des étapes du processus ! Une boucle d'information rétroactive peut contenir plusieurs processus de rétro-action ! Ici 5 étapes qui n'en forment qu'une.)

Ces cinq opérations se répètent pour chaque individu à la ruche entière.


Autrement dit les fourmis ne sont séparées les unes des autres qu'en apparence. Elles agissent comme un organisme à part entière. Certaines sont par exemple capables de construire des ponts de fourmis vivantes liées les unes aux autres pour que la colonie entière franchisse un ruisseau. Une seule fourmi ne pourrait pas franchir le ruisseau mais l'ensemble oui.

On est passé de phénomènes simples à une action complexe.

>> Algorithme de colonies de fourmis (wikipédia.org)

C'est ce que l'on nomme le phénomène d'émergence (ou « complexification des forces »). Le phénomène d'émergence qui peut s'appliquer à beaucoup de phénomènes (à partir du moment où de l'information circule en fait) peut également s'appliquer dans la conception des logiciels robotiques. D'après moi la boucle d'information rétro-active permet l'émergence de systèmes complexes.

>> Émergence (wikipédia.org)

C'est ce type de logiciel qui a donné les meilleurs résultats concernant l'Humanisation des Robots.

Pour les mêmes raisons le cerveau traite l'information de la même façon d'après les dernières recherches neurobiologiques. On ne stocke pas un concept (information) précisément quelque part (exemple / « Chat »). L'information est organisée en réseau et renvoie à plusieurs zones cérébrales à la fois (image-visuel-auditif-langagier-expérience-etc.). La mémoire est organisé en réseau. Un schéma neuronal souvent utilisé va se renforcer (boucle informative rétroactive positive) tandis qu'un schéma neuronal peu sollicité va faiblir puis finir par disparaître (boucle d'information rétro-active négative).

C'est aussi la façon de fonctionner des Robots Cybernétiques mais à un degré moins complexe. La somme d'informations traitées, la vitesse de traitement sont des facteurs importants qui jouent sur la ressemblance potentielle d'un programme robot et d'un humain.

Un article passionant à ce propos :

>> Des fourmis, des robots et des hommes (internetactu.net)

Extrait :

Pour Goldmann, l’organisation des fourmis est est très proche de celle des neurones. Dans le cerveau, un neurone s’active lorsqu’il reçoit un certain nombre d’inputs sous la forme de neurotransmetteurs envoyés par d’autres neurones. Lorsqu’une fourmi revient avec des vivres, elle stimule ses congénères qui réagissent à leur tour. En l’absence de cette excitation, soit rien ne se passe, soit une action contraire est effectuée (les fourmis butineuses retournent à l’intérieur de la fourmilière). Une fourmi ne se décidera à sortir du nid pour collecter que si elle est encouragée par un certain nombre de ses congénères revenant au nid avec la nourriture. Dans son livre, Ant Encounters, Deborah Gordon précise qu’il ne suffit pas que l’insecte rencontre un grand nombre de ses semblables. Cela doit se faire selon un certain rythme – environ une butineuse rencontrée toutes les 10 secondes –, de plus, ces butineuses doivent revenir avec de la nourriture. Seule la double odeur, celle spécifique à la butineuse et celle de la nourriture, produira une « excitation »… Mais cette activation n’est pas automatique. Le bon nombre de rencontres au bon rythme tend seulement à accroître les chances que l’animal décide de sortir et de se mettre en chasse. En revanche, si le nombre de « butineuses » diminue, les fourmis choisissant de sortir seront de moins en moins nombreuses.
Ce qui est frappant, c’est que le système repose sur deux notions : le feedback positif et le feedback négatif. Dans un feedback positif, une action déclenche d’autres actions en cascade. Dans un feedback négatif, au contraire, une action (ou une absence d’action) tend à inhiber les actions suivantes. Or ces notions de feedback positif et négatif sont tout sauf nouvelles : ce sont les bases de la cybernétique de Norbert Wiener. Il est intéressant de voir qu’alors que les théories de Wiener ont finalement peu influencé l’architecture des ordinateurs contemporains (Wiener favorisait des systèmes analogiques et non numériques, comme l’a fait von Neumann), ses principes se trouvent au coeur de l’étude des systèmes complexes.

Les rétroactions positives et négatives établissent un équilibre.




(je conclurais un peu plus tard)
« Modifié: 16 Juin 2017 à 18:56:18 par Capitaine Renard »
IP archivée

Capitaine Renard

  • *
  • En ligne En ligne
  • Messages: 860
  • flump'
Re : Fil généraliste IA, robots, drones: Au delà de l'intelligence humaine
« Réponse #218 le: 07 Juillet 2017 à 19:21:22 »

Une boucle d'information rétroactive est donc un processus mettant en rapport, en lien, des systèmes perceptifs (collecte d'information) avec des systèmes catégoriels (hiérarchisation de l'information). De ce rapport est tiré une adaptation à l'environnement plus ou moins effective suivant la somme d'information perçue et la vitesse du traitement de cette information.

La limite entre comportement automatique (type artefact) et comportement adaptatif (type organique) est parfois floue. Une boucle d'information rétroactive répétée plusieurs fois (même opération étalée dans le temps) peut se transformer en comportement automatique (mémoire en réseau). L'information rétroactive nécessite une plus grande dépense d'énergie que le comportement automatique. Haut coût contre bas coût. Lorsque la rétroactivité s'efface au profit de la création d'un nouvel automatisme il y a donc économie d'énergie.

Par exemple quelqu'un qui porte habituellement une montre va effectuer le geste pour savoir l'heure, à force, automatiquement. S'il ne porte plus sa montre il lui arrive souvent de recommencer le geste malgré tout. Ce comportement automatique est inconscient mais faible en coût d'énergie. Il ne nécessite pas un grand pouvoir de focalisation.
Inversement, se débarrasser de ce geste habituel activera la boucle rétroactive « je n'ai plus ma montre » avec un coût lié à la prise de conscience active de cette nouvelle information.

L'apprentissage « par coeur » suit le même principe. Une fois la connaissance intégrée elle n'occupe plus autant l'esprit.

La différence entre la machine, l'animal et l'Humain d'un point de vue cybernétique tient surtout à la formidable capacité d'abstraction de ce dernier grâce à sa capacité langagière. Je dirais que l'abstraction, cette capacité à traiter chaque qualité d'un objet perçu indépendamment de l'objet lui-même, est le propre de l'Humain (Exemple. L'amour chez telle personne / L'amour en général / Cette personne et ses autres sentiments).

Peut-être que ce qui manque à la machine pour devenir Humaine n'est qu'une question de temps d'apprentissage ?

La question peut aussi être posée en terme de société. Tout système social est basé sur les processus d'information rétroactive (adaptation collective) et de comportement automatique (codes comportementaux).

Sur le long terme l'apparition d'une IA véritable et de son impact sur la société est en tout cas posé.

Un exemple (cybernétique !) d'animal social qui illustre bien ce propos, la fourmi, à la fois différente et pourtant tellement proche de nous. Vous noterez l'incroyable symbiose de certaines espèces avec certaines plantes :

[embed=425,349]<iframe width="560" height="315" src="https://www.youtube.com/embed/XZeLIBw6t7U" frameborder="0" allowfullscreen></iframe>[/embed]

L'Organisation Secrète des Fourmis » - Documentaire Animalier]

Vox

  • **
  • Hors ligne Hors ligne
  • Messages: 42
Re : Fil généraliste IA, robots, drones: Au delà de l'intelligence humaine
« Réponse #219 le: 29 Septembre 2017 à 16:05:40 »

Un algorithme a gagné un tournoi de poker…
Les conséquences pour l’humanité sont colossales


Un groupe composé de certains des meilleurs joueurs de poker du monde n’est pas parvenu à battre un robot lors d’un tournoi marathon de 20 jours. Le programme d’intelligence artificielle (IA) Libratus développé par  l’Université Carnegie Mellon qui a participé au marathon de poker « Heads Up (1 vs. 1) No-Limit Texas Hold’em’ » contre 4 de ces champions de poker, a remporté 1 766 250 de dollars.

Ce n’est pas la première fois que l’élite mondiale d’un jeu particulier est battue par une IA. Un ordinateur IBM a vaincu le maître d’échecs Garry Kasparov il y a déjà 20 ans, tandis qu’AlphaGo, développé par la filiale de Google, DeepMind, a remporté 4 parties de Go contre le meilleur joueur de go du monde, l’année dernière.

Mais cette victoire au poker marque un nouveau jalon, car ce jeu de cartes est plus complexe que d’autres jeux comme les échecs ou jeu de société Go, car on ne peut pas voir le jeu des adversaires, ce qui signifie que l’on ne dispose pas de toutes les informations (ce que l’on qualifie de situation d’information imparfaite).

Et voici ce qui pourra en découler :

L’ordinateur peut nous tromper

Selon le professeur Tuomas Sandholm de Carnegie Mellon, qui a travaillé sur le système Libratus, ce programme pourra aussi avoir des applications dans d’autres situations d’information imparfaite, où les renseignements fournis sont incomplets ou trompeurs, comme dans l’industrie, les négociations commerciales, la stratégie militaire, les transactions à haute fréquence du monde financier, la cyber-sécurité, ou même la médecine.

La victoire de Libratus a des implications énormes

Car l’une des grandes avancées de Libratus est sa capacité à bluffer mieux que ses adversaires. Le poker Heads Up No-Limit Texas Hold ’em est la version la plus compliquée du jeu. Au cours du marathon, Libratus a quotidiennement appris de ses erreurs pour s’améliorer. Chaque jour, les parties étaient analysées par un superordinateur, et les 3 plus grosses faiblesses de la journée étaient corrigées pour améliorer l’algorithme.

Mais cette capacité à tromper l’homme confirme une fois de plus les craintes de l’astrophysicien Stephen Hawking. Ce dernier a signé en 2014 une lettre ouverte avec un groupe de scientifiques, dans laquelle ils mettent garde contre le développement sans contrôle de l’IA, et des effets dévastateurs pour l’humanité qu’une IA omnipotente pourrait comporter:
« On peut imaginer que cette technologie pourrait déjouer les marchés financiers, surpasser les chercheurs humains en matière d’inventions, manipuler les dirigeants humains, et développer des armes que nous ne pouvons même pas comprendre ».

De plus, le patron de Tresla, Elon Musk a fait part à plusieurs reprises de ses inquiétudes concernant le développement de l’IA, qu’il juge « plus dangereux que les armes nucléaires », et  il a déclaré qu’il s’agissait de “la plus grande menace existentielle”.

Interdire l’IA ?

Selon Laurent Alexandre, le PDG de DNAVision, une société française spécialisée de biologie moléculaire, le moment est venu de mettre en place un système qui permet de contrôler l’IA.

« Est-il raisonnable d’apprendre aux machines à tromper, dominer, dépasser les hommes  ? Est-il sage de leur apprendre à cacher leurs intentions, ­à déployer des stratégies agressives et manipulatrices comme dans le jeu de go ? (…)

Il est sans doute impossible d’interdire l’IA de ­Google, mais il faut mener une réflexion mondiale sur l’encadrement des cerveaux faits de silicium. Ce d’autant que la victoire de Google va accélérer la ­bataille industrielle entre les géants d’Internet qui ­placent l’IA au cœur de notre civilisation. La police de l’IA deviendra cruciale dans les décennies qui viennent. » - Source
« Modifié: 29 Septembre 2017 à 17:31:53 par Nemo492 »
IP archivée

Nemo492

  • Administrateur
  • *******
  • En ligne En ligne
  • Sexe: Homme
  • Messages: 13708
Re : Fil généraliste IA, robots, drones: Au delà de l'intelligence humaine
« Réponse #220 le: 17 Novembre 2017 à 15:35:11 »

Pour Stephen Hawking, il nous faut un autre foyer planétaire (et vite)

Lors du sommet Tencent WE Summit qui se tenait à Pékin il y a quelques jours, Stephen Hawking a de nouveau exprimé ses préoccupations quant à l’avenir de l’humanité. Il a notamment souligné la nécessité pour l’Homme de trouver un deuxième foyer planétaire dans le but de faire face à une population toujours croissante, mais également à la menace imminente que représente le développement de l’intelligence artificielle.

Il est temps de partir, selon Hawking. Le célèbre astrophysicien qui, lors d’un récent entretien avec le magasine WIRED, avait déclaré que l’humanité avait déjà atteint « le point de non-retour », a de nouveau fait part de ses préoccupations quant à notre avenir. Car l’avenir s’annonce très sombre. En 2600, l’humanité pourrait complètement disparaître, a-t-il affirmé, mettant en garde les participants au sommet auquel il a pris part par vidéoconférence. Le physicien a notamment justifié ses craintes en pointant du doigt l’accroissement de la population et de l’augmentation de la consommation d’énergie. Selon lui, la Terre risque de se transformer en une « boule de feu » vers l’an 2600.

Ajoutez à cela une intelligence artificielle toujours plus fine, et les risques de singularité qui vont avec, et vous obtenez très vite la nécessité de vous envoler pour un autre monde. Ce n’est pas la première fois que Hawking fait un tel avertissement. Dans une interview accordée en mars au Times, il a notamment déclaré qu’une apocalypse de l’IA était imminente et que la création d’une « forme quelconque de gouvernement mondial » serait nécessaire pour contrôler la technologie. Hawking a également mis en garde contre l’impact qu’aurait l’IA sur les emplois de la classe moyenne, et a même appelé à une interdiction totale du développement d’agents d’IA à usage militaire. En bref, l’avenir s’annonce dangereux pour la survie de notre espèce, et le seul moyen d’éviter la catastrophe, d’après le chercheur, est de s’enfuir pour trouver un second foyer planétaire.

Stephen Hawking a ainsi appelé les investisseurs à soutenir son projet Breakthrough Starshot ayant pour objectif d’entreprendre un voyage vers Alpha Centauri, l’étoile la plus proche du Soleil, en seulement 20 ans. Le directeur du projet Breakthrough Starshot, Pete Worden, a de son côté fait savoir que, dans la seconde moitié du XXIe siècle, les premières photographies d’une planète adaptée à la vie humaine, dans l’orbite d’Alpha Centauri, pourraient être obtenues. - Source
IP archivée
On n'est jamais si bien trahi que par ses amis.
Protégez-moi de mes amis, mes ennemis je m'en charge..
http://cryonautes.com - http://protocole-oracle.com