Digital Tutykać Tkostka (DTT)

Star Trek Today: Ludzkość może nie być w stanie kontrolować super-inteligentnej sztucznej inteligencji?

Ludzkość może nie być w stanie kontrolować superinteligentnej sztucznej inteligencji (AI), uważają autorzy niedawnego badania teoretycznego. Poza tym możemy nawet nie wiedzieć, że mamy tego rodzaju AI (sztuczna inteligencja) stworzyłeś.
Szybki postęp algorytmów sztucznej inteligencji odbywa się na naszych oczach. Maszyny wygrywają z ludźmi w ruchu i pokerze, pokonują doświadczonych pilotów myśliwców w walce powietrznej, uczą się od podstaw metodą prób i błędów, zwiastują wielką rewolucję w medycynie i naukach przyrodniczych, stawiają diagnozy, podobnie jak lekarze i potrafią lepiej rozróżniać ptaki niż ludzie. To pokazuje, jak szybki postęp jest w wielu dziedzinach.

Źródło obrazu: Pixabay


Odniesienie do odcinka Star Trek: Ogólne / Androidy - AI

Wraz z tym postępem pojawia się obawa, czy będziemy w stanie kontrolować sztuczną inteligencję. Obawy zgłaszane od co najmniej kilku dziesięcioleci. Znamy tę słynną trójkę od 1942 roku Prawa robotaktórzy faworyzowali pisarza Izaak Asimow w swoim opowiadaniu „The Game of Tag”:

1) Robot nie może wyrządzić krzywdy osobie lub poprzez bezczynność pozwolić na wyrządzenie krzywdy osobie,

2) robot musi wykonywać polecenia człowieka, o ile nie naruszają one pierwszego prawa, oraz

3) robot musi się chronić, o ile nie łamie pierwszego lub drugiego prawa.

Później dodał Asimov dodano nadrzędne prawo 0: Robot nie może szkodzić ludzkości ani powodować szkód przez zaniedbanieW 2014 roku filozof Nick Bostrom, dyrektor Instytutu Przyszłości Ludzkości na Uniwersytecie Oksfordzkim, zbadał, jak superinteligentna sztuczna inteligencja może nas zniszczyć, jak możemy ją kontrolować i dlaczego różne metody kontroli mogą nie działać. Bostrom zidentyfikował dwa problemy ze sterowaniem sztuczną inteligencją. Pierwsza to kontrola nad tym, co może zrobić sztuczna inteligencja. Na przykład możemy kontrolować, czy powinien łączyć się z Internetem. Drugi to kontrola nad tym, co chce robić. Aby go kontrolować, musimy go nauczyć na przykład zasad pokojowego współistnienia z ludźmi. Jak zauważył Bostrom, superinteligentna sztuczna inteligencja prawdopodobnie będzie w stanie pokonać wszelkie ograniczenia, które chcemy nałożyć na jej możliwości. Jeśli chodzi o drugi problem, Bostrom wątpi, że tak jest super inteligentna sztuczna inteligencja mógł nauczyć wszystkiego.

Teraz Manuel Alfonseca i jego zespół z Universidad Autonoma de Madrid postanowili zmierzyć się z problemem kontrolowania sztucznej inteligencji. Efekty swojej pracy opisał w Dziennik Badań nad Sztuczną Inteligencją.

Hiszpanie zauważają, że każdy algorytm, który ma zapewnić, że sztuczna inteligencja nie szkodzi ludziom, musi najpierw symulować zachowanie, które może spowodować krzywdę osoby, aby maszyna mogła ją rozpoznać i zatrzymać. Jednak zdaniem naukowców żaden algorytm nie będzie w stanie zasymulować zachowania sztucznej inteligencji i określić z absolutną pewnością, czy dane działanie może przynieść szkodę człowiekowi. To już zostało udowodnione Pierwsze prawo Asimova to problem, którego nie można obliczyć.
Poza tym możemy nawet nie wiedzieć, że stworzyliśmy superinteligentną maszynę - podsumowują naukowcy. Powód jest taki, że Twierdzenie Rice'a, która mówi, że nie można odgadnąć wyniku działania programu komputerowego po prostu patrząc na jego kod.

Ale Alfonseca i jego koledzy również mają dobre wieści. Cóż, nie musimy już martwić się o to, co zrobi super inteligentna sztuczna inteligencja. W rzeczywistości istnieją trzy główne ograniczenia dotyczące rodzaju badań prowadzonych przez Hiszpanów. Po pierwsze, taka superinteligentna sztuczna inteligencja pojawi się dopiero za 200 lat. Po drugie, nie wiadomo, czy w ogóle możliwe jest stworzenie tego typu sztucznej inteligencji, czyli maszyny, która jest inteligentna w tylu obszarach, co człowiek. Po trzecie, nawet jeśli możemy nie być w stanie kontrolować superinteligentnej sztucznej inteligencji, nadal powinno być możliwe kontrolowanie sztucznej inteligencji, która jest superinteligentna w wąskim zakresie.