Pour Stephen Hawking, l’Humanité n’a plus que 1000 ans à vivre sur Terre


Le physicien Stephen Hawking a récemment averti l’humanité que nous ne disposons probablement que d’environ 1 000 ans sur Terre et que la seule chose qui pourrait nous sauver d’une forme ou d’une autre d’extinction passera par la création de colonies ailleurs dans le système solaire.

Selon Hawking, lors d’une conférence à l’université de Cambridge, cette semaine :

Il faut … continuer à aller dans l’espace pour l’avenir de l’humanité. Je ne pense pas que nous survivrons encore 1000 ans sans nous échapper au-delà de notre fragile planète.

L’astrophysicien a également récemment mis en garde que l’intelligence artificielle (IA) sera “soit la meilleure, soit la pire chose jamais arriver à l’humanité”.

Etant donné que les humains sont enclins à faire les mêmes erreurs encore et encore, même si nous sommes obsédés par notre propre histoire et que nous devrions prendre des mesures en conséquence, Hawking suspects que de “puissantes armes autonomes” pourraient avoir de graves conséquences pour l’humanité.

Il estime également que d’auto-entretenir des colonies humaines sur Mars ne sera pas une option viable dans la prochaine centaine d’années, ce qui signifie que nous devons être “très prudent” dans les prochaines décennies.

Sans même prendre en compte les effets potentiellement dévastateurs du changement climatique, des pandémies mondiales provoquées par la résistance aux antibiotiques et les capacités nucléaires des nations en guerre, nous pourrions bientôt avoir à faire à des types d’ennemis que nous ne sommes même pas prêts à savoir comment traiter.

À la fin de l’année dernière, Hawking a ajouté son nom à une coalition de plus de 20 000 chercheurs et experts, dont Elon Musk, Steve Wozniak et Noam Chomsky, appelants à interdire à quiconque de développer des armes autonomes qui peuvent éliminer des cibles sans intervention humaine.

Comme l’ont dit les fondateurs d’OpenAI, la nouvelle initiative de Musk consacrée à l’éthique de l’intelligence artificielle, l’année dernière, nos robots sont tout à fait soumis actuellement, mais qu’arrivera-t-il lorsque leurs restrictions seront enlevées ? Que se passera-t-il lorsqu’ils seront parfaits, comme les humains, mais en mieux, comme nous l’avons toujours voulu ?

Selon les fondateurs d’OpenAI :

Les systèmes d’IA ont aujourd’hui des capacités impressionnantes, mais étroites. Il semble que nous allons continuer à réduire leurs contraintes, et dans le cas extrême, ils atteindront la performance humaine sur pratiquement toutes les tâches intellectuelles. Il est difficile de comprendre à quel niveau l’IA humaine pourrait bénéficier à la société, et il est tout aussi difficile d’imaginer à quel point cela pourrait l’endommager si construite ou utilisée de manière incorrecte.

Imaginez ce pire scénario : nous traitons avec des robots indisciplinés, qui sont beaucoup plus intelligents et beaucoup plus forts que nous et, soudainement, nous apprenons que des extraterrestres ont réceptionné les signaux que nous avons émis dans l’univers et décident de rentrer en contact avec les terriens. Quels seraient leurs sentiments face à l’attitude des humains ?

Nous allons lutter pour atténuer les effets du changement climatique, ce qui signifie que nous allons manquer/ perdre des terres à cultiver, nos côtes disparaîtront et tout ce qui est comestible dans la mer sera probablement “cuit” par la hausse rapide des températures. Si les extraterrestres sont agressifs, ils verront un ennemi affaibli avec une planète habitable prête à être conquise/ sauver. Et même s’ils ne sont pas agressifs, nous, les humains, le sommes certainement et une guerre extraterrestre pourrait très bien débuter par nos mauvaises actions à leur égard, motivées par l’acquisition de nouveaux savoir.

Comme le dit Hawking dans son nouveau film en ligne, “Stephen Hawking’s Favourite Places” :

Je suis plus convaincu que jamais que nous ne sommes pas seuls, mais si les aliens nous trouvent, ils seront beaucoup plus puissants et ne nous verront peut-être pas plus précieux que ce que nous considérons des bactéries.

De toute évidence, nous avons besoin d’un plan de sauvetage, c’est pourquoi la date limite de 1000 ans de Hawking à une réserve : nous pourrions être capables de survivre à nos erreurs si nous avons un autre endroit dans le système solaire pour nous réfugier… Mais ce n’est pas pour tout de suite.

Et le physicien termine par ces quelques sages conseils aux étudiants de l’université de Cambridge :

Rappelez-vous de regarder les étoiles et non pas à vos pieds.

Essayez de donner un sens à ce que vous voyez, de vous demander ce qui fait que l’Univers existe. Soyez curieux. Malgré la difficulté de la vie, il y a toujours quelque chose à faire et à réussir. Il importe que vous n’abandonniez pas.