Попередження Гокінга: що нас чекає у майбутньому

Славу Стівену Гокінгу принесли дослідження про чорні діри та загальну теорію відносності. Проте він часто виходив за межі традиційної для нього сфери досліджень, використовував своє визнання у світі, щоб попередити про найбільші виклики та екзистенційні загрози людству у найближчі десятиліття.

Його твердження потрапляли на перші шпальти ЗМІ, хоча іноді вони були суперечливими, пише ВВС Україна.

Вийти за межі Землі

Гокінг був явно стривожений тим, що ми помістили всі наші яйця в один кошик, і цим кошиком була Земля. Десятиліттями вчений закликав людей почати процес заселення інших планет. Ці заклики потрапляли на перші шпальти видань знову і знову.

Обґрунтування Гокінга полягало в тому, що людство врешті стане жертвою катастрофи, яка може спровокувати вимирання – швидше раніше, ніж пізніше.

Його турбували так звані маловірогідні події з великими наслідками – класичним прикладом є великий астероїд, який вражає нашу планету.

Але Гокінг бачив і велику кількість інших потенційних загроз, зокрема штучний інтелект, зміни клімату, генетично-модифіковані віруси та ядерну війну.

У 2016 році він розповів BBC: “Хоча можливість катастрофи на планеті Земля в певний рік може бути досить низькою, вона з часом збільшується і стає майже певною у наступні 1000 або 10000 років”.

ГокінгКопирайт изображенияAKIHIRO IKESHITA/AFP/GETTY IMAGES
Image captionЗіткнення з велетенським астероїдом професор Гокінг вважав лише однією з багатьох загроз для Землі

Гокінг був впевнений, що до того часу люди створять перші поселення на інших планетах (якщо буде можливість), але додав: “Ми не будемо створювати самодостатні колонії в космосі принаймні в наступні 100 років, тому ми повинні бути дуже обережними в цей період”.

Тут погляди вченого збігаються з думками бізнесмена Ілона Маска, ще однієї наукової суперзірки, чиї роздуми привертають до себе широку увагу.

У 2013 році Маск наголосив на конференції: “Ми або поширюємо земне життя на інші планети, або ми ризикуємо вимерти. Вимирання неминуче, і ми поступово йдемо до нього”.

Відповідно до своїх поглядів щодо цієї теми, Гокінг підтримав проект Breakthrough Starshot, в рамках якого досліджуються технології міжпланетних подорожей.

Загроза від штучного інтелекту?

Гокінг визнав великі можливості, які виникли внаслідок прогресу в сфері штучного інтелекту, проте також попереджав про небезпеку.

У 2014 році він сказав BBC, що “розвиток штучного інтелекту у повній мірі може означати кінець людства”.

Гокінг зазначив, що створені на даний момент примітивні форми штучного інтелекту вже довели свою корисність; і дійсно, технології, які він використовував для того, щоб спілкуватися (знаменитий мовний синтезатор.- Ред.), використовували базову форму штучного інтелекту.

Але Гокінг боявся наслідків просунутих форм штучного інтелекту, який міг не поступатися або перевершити людський.

Робот СофіяКопирайт изображенияGETTY IMAGES
Image captionСтівен Гокінг попереджав про небезпеку просунутих форм штучного інтелекту

Деякі вчені вважають, що подібні твердження засновуються на історіях із застарілих науково-фантастичних творів.

Інші, такі як професор Бредлі Лов з Університетського коледжу Лондона, погоджувалися, що є ризики.

“Високорозвинений штучний інтелект створить величезне багатство для суспільства, проте залишить багатьох людей без роботи”, – сказав він The Conversation.

Водночас Бредлі Лов додав: “Якщо ми збираємося турбуватися про майбутнє людства, ми повинні зосередити увагу на реальних викликах, таких як зміни клімату та зброя масового знищення, а не фантастичних вбивцях зі штучним інтелектом”.

Переломний момент для планети

Гокінг розглядав глобальне потепління як одну з найбільших загроз для життя на планеті. Вчений особливо боявся так званого переломного моменту, коли глобальне потепління стане незворотнім. Він також висловив стурбованість рішенням США вийти з Паризької угоди.

“Ми близькі до переломного моменту, коли глобальне потепління стає незворотним. Дії Трампа можуть підштовхнути Землю до того, що вона стане схожою на Венеру, з температурою 250 градусів і з дощами з сірчаної кислоти”, – сказав він BBC News.

ПосухаКопирайт изображенияGETTY IMAGES
Image captionГокінг належав до людей, які попереджають людство про наслідки кліматичних змін

Міжурядова група ООН з питань зміни клімату (МГЕЗК) також підкреслює потенційну небезпеку переломних моментів кліматичних змін у зв’язку з підвищенням температури, хоча це також підкреслює прогалини в наших знаннях.

Водночас Стівен Гокінг був у досить великій компанії людей, які вважали кліматичні зміни одним з найбільших викликів наступних століть.

Тихіше! Вони нас почують!

Існує ціла наукова дисципліна, відома як SETI – пошук позаземних форм цивілізації, присвячена прослуховуванню сигналів від розумних істот з інших місць Всесвіту і намаганню встановити радіоконтакт з ними.

Проте пан Гокінг застерігав від спроб привернути увагу позаземних цивілізацій.

У 2010 році він сказав каналу Discovery, що інопланетяни можуть просто напасти на Землю заради ресурсів, а потім рухатися далі.

“Якщо прилетять інопланетяни, то наслідки можуть бути такими ж, як для індіанців під час прибуття Колумба в Америку – тобто не найкращі”, – зазначив вчений.

“Ми повинні лише подивитися на себе, щоб побачити, як розумне життя може розвинутися у те, чого ми не хотіли би зустріти”, – наголосив він.

Тоді Сет Шостак з Seti Institute в Каліфорнії сказав Guardian: “Це необґрунтований страх. Якщо вони зацікавлені в ресурсах, то вони можуть знайти скелясті планети, що не залежить від того, ведемо ми радіомовлення або ні. Вони могли знайти нас мільярд років тому”.

сигналиКопирайт изображенияSPL
Image captionЧи варто нам посилати сигнали позаземним цивілізаціям або лише слухати їх?

Проте інші бачили логіку в коментарі Хокінга.

Ян Стюарт, математик з Ворікського університету, зазначив: “Багато людей думають, що, оскільки вони (інопланетяни.- Ред.) будуть такими мудрими та обізнаними, вони будуть мирними. Я не думаю, що можна покладатися на це”.

Зробити науку цікавою

Засоби масової інформації надавали вченому безпрецедентну платформу. Але деякі представники наукової спільноти іноді проявляли менше ентузіазму щодо заголовків для його заяв, ніж журналісти, які їх писали.

Дійсно, мене в минулому запитували, чому британські ЗМІ, схоже, чіпляються до кожного слова Гокінга.

Професор Мартін Ріс, королівський астроном Британії, пояснює: “Він мав здоровий глузд і був готовий рішуче висловити політичні погляди”.

“Проте недоліком його знакового статусу було те, що його твердження по деяких темах, в яких він не був експертом, привернули до себе надмірну увагу. Наприклад, щодо філософії чи небезпеки від інопланетян або від штучного інтелекту”, – говорить пан Ріс.

Проте багато хто міг би також сказати, що окрім певних тверджень чи заголовків в медіа, пан Гокінг мав унікальну здатність спілкуватися з людьми.

Вони би сказали, що “хайп”, ажіотаж, що іноді з’являвся, був неминучим побічним продуктом статусу його імені. Натомість нам треба зосередитися на великому добрі – здатності Стівена Гокінга зробити науку цікавою для людей, які б інакше могли їй навіть другорядного значення не надавати.

Це є свідченням його успіху як людини, яка здатна ефективно доносити до інших людей інформацію.

Тому скорбота за цим чемпіоном раціонального мислення поширюється далеко за рамки наукової спільноти.

Лекція ГокінгаКопирайт изображенияGETTY IMAGES
Image captionЛекція Стівена Гокінга в Університеті науки та технологій в Гонконгу, 2006 рік

Коментарі