Les risques existentiels (concept et applications)

Voir le sujet précédent Voir le sujet suivant Aller en bas

Les risques existentiels (concept et applications)

Message par Catharing le Dim 23 Déc 2012 - 16:28

Salut,

Suite au reportage sur ARTE , les derniers jours de l'homme,j'ai voulu en savoir un peu plus sur cette notion de "risques existentiels" que je ne connaissais pas et la partager avec vous.

Risque Existentiel :

Un « risque existentiel » se définit comme un danger qui menace la planète tout entière, et qui aurait pour conséquence « soit une destruction totale de toute vie intelligente sur Terre, soit une paralysie permanente de son potentiel de développement », selon Nick Bostrom. Ce terme s’emploie souvent lorsqu’on évoque un scénario de catastrophe que pourrait causer l’action d’une intelligence supérieure hostile, l’utilisation abusive de la nanotechnologie moléculaire ou tout autre péril de grande envergure.

Avec une formation en physique, en neurosciences et en philosophie des sciences, Nick Bostrom n'a pas forcément le profil-type du philosophe tel qu'on se le figure d'ordinaire.


<< Dans cette interview, il ne s'intéresse donc pas aux conséquences, lointaines, du réchauffement climatique, mais, considérant que ce XXIe siècle sera crucial pour l'humanité en raison du développement rapide de technologies nouvelles, aux risques que ces dernières présenteront dans un futur très proche de nous :

"A court terme, dit-il, je pense que plusieurs développements dans les domaines de la biotechnologie et de la biologie synthétique sont assez déconcertants.
Nous sommes en train d'acquérir la capacité à créer des agents pathogènes modifiés et les plans de plusieurs organismes pathogènes sont dans le domaine public : vous pouvez télécharger sur Internet la séquence génétique du virus de la variole ou de celui de la grippe espagnole.

Jusqu'ici, le citoyen ordinaire n'a que leur représentation graphique sur l'écran de son ordinateur, mais nous développons aussi des machines synthétisant l'ADN de plus en plus performantes, qui peuvent prendre un de ces plans numériques et fabriquer de véritables brins d'ARN ou d'ADN.
Bientôt, ces machines seront suffisamment puissantes pour recréer ces virus.
Donc, vous avez déjà une sorte de risque prévisible et si, ensuite, vous commencez à modifier ces organismes pathogènes de différentes manières, vous voyez apparaître une nouvelle frontière dangereuse.

A plus long terme, je pense que l'intelligence artificielle, une fois qu'elle aura acquis des capacités humaines puis surhumaines, nous fera entrer dans une zone de risque majeur.
Il y a aussi différentes sortes de contrôle des populations qui m'inquiètent, des choses comme la surveillance et la manipulation psychologique à l'aide de médicaments."


Quand le journaliste qui l'interroge lui demande pourquoi le risque d'un dérapage majeur est estimé à une ou deux chances sur dix au cours du siècle, ce qui est beaucoup, Nick Bostrom a cette réponse : "Je pense que ce qui mène à cela, c'est le sentiment que les humains développent ces outils très puissants (...) et qu'il y a un risque que quelque chose tourne mal.[...]

[...]A chaque fois que nous faisons une de ces découvertes, nous mettons notre main dans une grande urne pleine de balles et nous en tirons une nouvelle balle : jusqu'ici, nous avons sorti des balles blanches et des grises, mais peut-être que la prochaine fois, nous tirerons une balle noire, une découverte synonyme de désastre. Pour le moment, nous n'avons pas de bonne façon de remettre la balle dans l'urne si elle ne nous plaît pas. Une fois que la découverte a été publiée, il n'y a aucun moyen de la "dépublier"."


Nick Bostrom n'est absolument pas opposé à la technologie : au contraire, c'est un grand partisan du transhumanisme.
Simplement, il milite pour que nous gardions le contrôle. Le contrôle de nos technologies, de notre planète, de notre avenir. Parce que l'extinction de l'homme n'est pas le seul risque que nous courons.

L'autre visage du risque existentiel, c'est la disparition totale des libertés à l'échelle planétaire :
"On peut imaginer le scénario d'une dystopie totalitaire mondiale. Encore une fois, c'est lié à la possibilité que nous développions des technologies qui rendront bien plus simple, pour des régimes oppressifs, d'éliminer les dissidents ou de surveiller leurs populations de façon à obtenir une dictature stable, plutôt que celles que nous avons vues au cours de l'histoire et qui ont fini par être renversées." George Orwell et son 1984 ne sont pas bien loin.[...] >>

Nick Bostrom, enseigne à l'université d'Oxford, et y dirige l'Institut sur le futur de l'humanité http://www.fhi.ox.ac.uk/



Sinon..

A l'université de Cambridge, un centre d’étude du risque existentiel –The Centre for the Study of Existential Risk (CSER) se concentrera sur ces risques qui pèsent sur l’espèce humaine, qu’il s’agisse de bio- ou de nanotechnologies, de changements climatiques extrêmes ou d’intelligence artificielle.
http://www.cam.ac.uk/research/news/humanitys-last-invention-and-our-uncertain-future/

Le centre, qui devrait débuter ses travaux l’année prochaine, a été fondé par trois personnes: Jaan Tallinn, le co-fondateur de Skype, Martin Rees, professeur de cosmologie et d’astrophysique et Huw Price, professeur de philosophie.
Ce dernier détaille ainsi les raisons qui poussent l’université à se pencher sur ces risques existentiels:
«Nous devons prendre en compte sérieusement le fait que nous arrivons au point où nos technologies ont le potentiel de menacer nos existences —à un point jamais atteint jusqu’à aujourd’hui dans l’histoire humaine.»

Quelques travaux du centre....

- La fabrication d'un registre national des risques http://www.cam.ac.uk/research/discussion/the-making-of-a-national-risk-register/

- La pensée apocalyptique et la résilience urbaine http://www.cam.ac.uk/research/features/apocalyptic-thinking-and-urban-resilience/
Extrait..
" Maintenant, en Occident, vous avez un public plus éclairé, mais plus sceptiques, isolé et paranoïaque, alimenté par des médias hyperactifs.
Le résultat est un mélange potentiellement destructeur de la méfiance, la résignation et l'espérance. "


- Les scientifiques expliquent échelle de tsunami japonais http://www.cam.ac.uk/research/features/scientists-explain-scale-of-japanese-tsunami/
[/list]



Bonne lecture study

Sources:

Extraits article du blog de Pierre Barthélémy
http://passeurdesciences.blog.lemonde.fr/2012/03/13/lhumanite-sous-estime-t-elle-le-risque-de-sa-propre-extinction/

http://lifeboat.com/ex/about.french


Dernière édition par Catharing le Mar 25 Déc 2012 - 21:16, édité 2 fois

Catharing
Modérateur

Masculin Nombre de messages : 4077
Localisation :
Date d'inscription : 22/11/2011

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Les risques existentiels (concept et applications)

Message par Raffa le Dim 23 Déc 2012 - 18:32

A voir aussi, passé sur arte il y a peu, "un monde sans humain"

________________________________________________________
Pour explorer le champ des possibles, le bricolage est la méthode la plus efficace. H. Reeves
La connaissance s'acquiert par l'expérience, tout le reste n'est que de l'information. A. Einstein
Qui s'instruit sans agir laboure sans semer Proverbe africain
ressources

Raffa
Modérateur à temps partiel

Féminin Nombre de messages : 1853
Date d'inscription : 12/01/2008

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Les risques existentiels (concept et applications)

Message par Invité le Dim 23 Déc 2012 - 19:18

Ou en serai le monde sans charbon ni pétrole, ou si peu qu'il ai été déjà épuisé?

Invité
Invité


Revenir en haut Aller en bas

Re: Les risques existentiels (concept et applications)

Message par Catharing le Jeu 23 Avr 2015 - 22:18

« Les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles.
Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine »
.  Stephen Hawking 

L'appel de 700 personnalités sur les dangers de l'intelligence artificielle

Les progrès de l'intelligence artificielle sont fulgurants, mais peu de recherches sont effectuées sur les conséquences de cette révolution technologique. C’est l’avertissement émis dans une lettre ouverte par un groupe de chercheurs et d'entrepreneurs. Parmi eux, Stephen Hawking et Elon Musk.  

Et si la réalité rattrapait la fiction ?
Sept cents personnalités du monde des sciences et de la technologie appellent, dans une lettre ouverte publiée le 10 janvier 2015, à plus de prudence face à l'essor de l’intelligence artificielle, dont les récents progrès ont été fulgurants.
À leur tête, l’astrophysicien britannique Stephen Hawking,  mondialement connu pour ses recherches conduites sur les trous noirs et la gravité quantique, malgré une paralysie physique quasi totale.
La lettre a été publiée par le Future of Life Institute (FLI), un think tank créé par Jaan Tallinn, cofondateur de Skype, et dédié à « protéger l’humanité des risques existentiels ». Parmi ses autres célèbres signataires, Elon Musk, fondateur de SpaceX et de Tesla Motors ou encore Morgan Freeman, qui occupe l'affiche du film Transcendance (2014), justement consacré aux dangers de l'intelligence artificielle.....

Progrès exponentiels
« Il existe désormais un large consensus selon lequel les recherches sur l'intelligence artificielle avancent à un rythme soutenu, et leur impact sur la société va probablement aller en augmentant », affirment les 700 signataires.
Ces effets s'observent déjà autour de nous : reconnaissance vocale, interprétation d’images, traduction automatique et bientôt pilotage des véhicules par eux mêmes. Autant d'innovations qui ont entrainé un cycle vertueux d’investissements massifs, de progrès technologiques et de compétition effrénée entre les entreprises. La question, estiment les signataires, n’est plus de savoir « si », mais « quand » et « qui » aura le premier créé une intelligence artificielle véritable.....

Assurer le progrès humain
« Étant donné le grand potentiel de l'intelligence artificielle, estiment les signataires, il est important d'étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges. » Ils évoquent, entre autres, la possibilité d'un chômage de masse dû à la robotisation, l'apparition d'armes autonomes, ou la délégation de choix moraux à des machines.

Et un avis contraire ..pour équilibrer.

L'intelligence artificielle n’aura pas lieu.

Nous pensions dépassé le fantasme d'une « intelligence artificielle qui pourrait mettre fin à l'humanité » ou bien surpasser l'intelligence humaine. Et pourtant c'est bien dans la bouche d'un grand scientifique (ces propos sont dans la vidéo du document en lien) que cette sempiternelle contre-vérité scientifique revient.
Bien entendu, cet humain a aussi le droit de dire des conneries, surtout quand il s'exprime sous la pression médiatique hors de son champ de connaissance avec des arguments qui ne relèvent pas d'une démarche scientifique, mais d'un "pourquoi pas" qui n'a rien de réfutable
Pour faire le point, donnons la parole à un collègue moins médiatique mais qui a le mérite de connaître le sujet : Nicolas Rougier.

La promesse originelle
En août 1956, alors que l'on voit apparaître les premiers ordinateurs, un séminaire d'été se tient à Dartmouth, U.S.A. qui réunit une équipe de jeunes chercheurs d'horizons variés parmi lesquels se trouvent John McCarthy, mathématicien, Herbert Simon, théoricien des organisations, Allen Newell, mathématicien, Claude Shannon, père de la théorie de l'information et Marvin Minsky, mathématicien.

 L'ambition de ces pionniers est alors d'étudier les possibilités de construire des machines pouvant égaler (voire surpasser) l'intelligence humaine sur la base des nouveaux moyens de l'informatique naissante.
 Le domaine de l'Intelligence Artificielle (IA) est né.
A cette époque, l'enthousiasme des chercheurs vis à vis du problème de l'intelligence leur faisait prédire la résolution de grands problèmes (planification, traitement du langage naturel, théorie des jeux, intelligence générale) dans les décennies suivantes.

Ces promesses quant à la résolution du problème général de l'intelligence n'ont pas été tenues.

Le rapport Lighthill en 1974 va sonner le glas de cette première génération d'illusions. Et quand à la fin des années 80, le domaine retrouvait un nouvel essor, survint un deuxième hiver, suite au manque de résultats et aux promesses toujours mal fondées.
En dépit de ces désillusions, un ensemble de résultats majeurs ont été produit. Ils permettent, par exemple, de fouiller des milliards de pages Web (par exemple l'algorithme PageRank de Google) ou bien encore de retranscrire sous forme de texte la parole humaine sur chaque smartphone.
Soixante ans ont passé depuis.
Toujours point de machine surpassant l'intelligence humaine.....
L'intelligence du joueur de foot
Or, si il est effectivement possible à une machine de battre le champion du monde des échecs, une machine est tout à fait incapable, par exemple, de battre n'importe quel joueur de foot, aussi amateur soit-il. Étonnant, non ?
Comment expliquer ce paradoxe ? Cette situation s'explique avant tout par la notion d'intelligence qui est manipulée.
L'intelligence que l'on veut prêter à Deeper Blue est ici fondée sur le calcul, l'analyse et le raisonnement.
 Depuis le discours de la méthode de Descartes, le courant de pensée des rationalistes, mené par Descartes, Spinoza et Leibniz, a voulu croire cette intelligence, une intelligence fondée sur l'esprit et la raison, équivalente à l'intelligence humaine. A l'opposé, le courant de pensée des empiristes, parmi lesquels Bacon, Locke, Berkeley et Hume, prôna la prise en compte de l'expérience sensible du monde et rejeta l'idée de la connaissance réduite à l'esprit et à la raison.
On retrouve cette dualité dans deux courants de pensée qui s'affrontent sur le rôle de l'ordinateur.
Un premier courant symbolique considère la machine comme un système de manipulation de symboles qui peut être utilisé pour instancier des représentations formelles du monde. Il repose sur la logique, se faisant ainsi l'héritier des rationalistes, et sa philosophie peut se résumer à la volonté de construire un esprit ("making a mind"). Mené par Allen Newell et Herbert Simon, ce courant symbolique stipule que l'intelligence repose sur la notion de symbole.
Le deuxième courant connexionniste considère en revanche la machine comme un support de la modélisation du cerveau offrant les capacités nécessaires pour simuler les interactions entre les neurones. Il repose sur le domaine des statistiques et sa philosophie peut se résumer à la volonté de modéliser le cerveau ("modelling the brain").
Ce courant connexionniste mené par, entre autres, Frank Rosenblatt propose une vision numérique du traitement de l'information et s'oppose à l'hypothèse symboliste.
Aujourd'hui, nous savons que l'intelligence humaine ne se réduit pas à une simple manipulation des symboles. L'expérience du monde physique, au travers du corps, est un élément essentiel du développement de la cognition. C'est ce qu'on appelle la cognition incarnée et les plus gros défis de l'intelligence artificielle se situe aujourd'hui dans ce domaine.

Un fantasme récurrent
Ce fantasme de l'intelligence artificielle omnipotente a pour vertu principale de détourner nos regards de réflexion, par exemple, à propos des robots mis en œuvre dans le trading haute fréquence qui ont eux un impact très réel sur le monde. Dans un monde devenu numérique, comprendre et maîtriser la science informatique est donc devenu une nécessité.
Avec tout le respect dû au génie de Stephen Hawking dans le domaine de la physique théorique et de la cosmologie, sa récente interview au sujet de l'intelligence artificielle fait donc preuve d'une certaine naïveté de sa part ou bien d'une incertaine malveillance du journaliste qui a retranscrit l'interview.

Mais peut-être que le but était de nous détourner des recherches en physique théorique qui vont permettre à terme de recréer un mini trou noir qui pourrait engloutir la Terre ! Ou pas.

________________________________________________________
« Celui qui donne sa pitié au méchant fait tort au juste. »

"J'ai tendance à comparer les humains actuels aux légumes cultivés hors sol, sous serre.
Il suffit que tu les déplaces en terre, au soleil, en plein vent, sous la pluie, pour qu'ils crèvent. Tellement ils sont fragiles
." Lo de

Catharing
Modérateur

Masculin Nombre de messages : 4077
Localisation :
Date d'inscription : 22/11/2011

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Les risques existentiels (concept et applications)

Message par Wanamingo le Ven 24 Avr 2015 - 0:17

Excellent article de We Demain Smile Je rajouterai ça. La courbe de Kurzweil, où comment selon la loi de Moore la puissance des ordinateurs va bientôt rattraper celle de nos cerveaux. Ca veut pas dire une IA directement, mais quand meme ça fait réfléchir sur la vitesse à laquelle on y va. J'avais vu une interview d'un mec de la Singularity University qui expliquait avoir réussi à modéliser l'intelligence d'un ver, que l'année prochaine il espérait faire un insecte et six mois après une souris.




Wanamingo
Modérateur & animateur

Masculin Nombre de messages : 1210
Date d'inscription : 27/07/2011

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Voir le sujet précédent Voir le sujet suivant Revenir en haut

- Sujets similaires

 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum