Według raportu RAND Corporation sztuczna inteligencja wywoła globalną wojnę nuklearną

Kategorie: 

Źródło: 123rf.com

Scenariusz nuklearnego holokaustu, wywołanego przez systemy sztucznej inteligencji znamy już z takich filmów, jak „Terminator”. Jednak zdaniem ekspertów, ziści się on także poza ekranami kin.

Zdaniem analityków z RAND, największym problemem wcale nie są pazerne  korporacje, skupione na doskonaleniu sztucznej inteligencji, lecz wrogie armie USA, Chin i Rosji czy Izraela, nad którymi nikt tak naprawdę nie ma kontroli.

O tym, że nie jest dobrze, świadczy to, jak obecnie nadużywane są technologie inwigilacyjne i deep fake.

Jeżeli już na tym etapie mamy do czynienia z tak natarczywym łamaniem praw człowieka przez innych ludzi, to jak można oczekiwać, że armie, gdy już otrzymają tak potężne narzędzie jak świadoma sztuczna inteligencja, nie będą chciały tego wykorzystać przeciwko swoim wrogom?

Nie ma się co łudzić, że na czele największych wojsk, stoją ludzie krystalicznie moralni. Nie ma też specjalnego powodu, aby bezgranicznie ufać intencjom samych programistów oraz inżynierów, którym mogą przy projektowaniu takich systemów, przyświecać również cele zdecydowanie niehumanitarne.

Twórcy raportu RAND Corporation są zdania, że korzystanie z algorytmów sztucznej inteligencji, rozwijanych poprzez uczenie maszynowe, już w 2040 roku może doprowadzić do zaburzenia programu nuklearnego odstraszania. Potęga systemów sztucznej inteligencji, ma bowiem wręcz zachęcać armie do większych potyczek.

Jeżeli kontrolę nad systemami odstraszania nuklearnego przejmą maszyny i roboty, których jedynym celem, jest realizacja celów, a nie rozterki moralne, to takie algorytmy będą dążyły wyłącznie do jak najszybszego unicestwienia swoich wrogów.

Mocarstwo, które zyska wyraźną przewagę nad resztą w kwestii rozwoju silnej SI, będzie chciało podbić świat i zapewne mu się to uda. Jednak na drugim końcu tego kija, będzie ewentualny bunt sztucznej inteligencji przeciwko swoim twórcom.

Ocena: 

Nie ma jeszcze ocen
loading...

Skomentuj