Video
Transkrypcja
Wyobraź sobie przyszłość w której twój toster
przewiduje na jaki rodzaj tosta masz ochotę.
Podczas dnia
przeszukuje Internet pod kątem nowych
i ekscytujących rodzajów tostów. Może pyta cię
o twój dzień, a może chce pogadać
o nowych osiągnięciach w technologii opiekania
W którym momencie stałby się osobą?
W którym momencie zaczniesz się
zastanawiać czy twój toster ma uczucia?
Czy jeśli by je miał, to czy wypięcie go z gniazdka byłoby morderstwem?
I czy nadal byłby twoją własnością?
Czy pewnego dnia będziemy zmuszeni przyznać naszym maszynom
prawa?
Sztuczna inteligencja już jest wokół ciebie.
Dba o uzupełnianie maszyn
odpowiednimi przekąskami,
wybiera dla ciebie odpowiednią reklamę w internecie,
a może nawet przeczytałeś
artykuł napisany w całości przez maszynę.
Teraz patrzymy na czaty jak na przykład Siri
i śmiejemy się z ich prymitywnych symulowanych emocji.
Ale jest prawdopodobne
że będziemy mieli do czynienia z bytami
które utrudniają wyznaczenie granicy
pomiędzy prawdziwym a symulowanym człowieczeństwem.
Czy istnieją maszyny które
zasługują na swoje prawa?
Prawdopodobnie jeszcze nie. Ale jeśli się pojawią,
nie jesteśmy na to przygotowani.
Znaczna część filozofii prawa w ogóle nie jest przygotowana
do radzenia sobie z przypadkami sztucznej inteligencji
Większość przywilejów należnych
człowiekowi lub zwierzętom skupia się wokół
kwestii świadomości.
Niestety nikt nie wie
czym jest świadomość. Niektórzy sądzą że jest
niematerialna, inni twierdzą że jest stanem materii
jak gaz lub ciecz
Niezależnie od dokładnej definicji
Mamy intuicyjną wiedzę o świadomości,
bo jej doświadczamy.
Jesteśmy świadomi siebie i naszego otoczenia
I wiemy jakim uczuciem jest nieświadomość
Niektórzy neurologowie wierzą że każdy
wystarczająco złożony układ może wytworzyć świadomość
Więc gdyby sprzęt twojego tostera
był wystarczająco mocny, to
mógłby zyskać samoświadomość. Czy gdyby tak zrobił
to czy zasługiwałby na prawa?
Nie tak szybko
Czy to co uważamy za prawa miałoby dla niego sens?
Świadomość nadaje bytom potrzebę praw
bo daje im możliwość cierpienia.
To oznacza zarówno
odczuwanie bólu, jak i bycie jego świadomym
Roboty nie cierpią i prawdopodobnie nie będą,
chyba że tak je zaprogramujemy.
Bez cierpienia lub przyjemności
nie ma preferencji i prawa są bez znaczenia.
Nasze prawa człowieka są głęboko związane
z naszym własnym oprogramowaniem. Na przykład nie lubimy bólu
bo nasze mózgi ewoluowały by przetrwać.
By powstrzymać nas przed dotykaniem gorącego ognia
lub by zmusić nas do ucieczki przed drapieżnikami
Więc wynaleźliśmy prawo które
chroni nas przed nadużyciami powodującymi ból.
Nawet bardziej abstrakcyjne prawa, jak wolność
są zakorzenione w sposobie w jaki nasze mózgi
są skonstruowane by wykrywać co jest sprawiedliwe
a co nie. Czy toster bez możliwości ruchu
miałby coś przeciwko zamknięciu go w klatce?
Czy miałby coś przeciwko demontażowi, gdyby
nie bał się śmierci?
Czy nie lubiłby obelg jeśli nie potrzebowałby samowartości?
Ale co by było gdybyśmy zaprogramowali
robota tak by czuł ból i emocje?
By wybierał sprawiedliwość nad niesprawiedliwość,
przyjemność nad cierpienie i był ich świadom.
Czy to czyniłoby go wystarczająco ludzkim?
Wielu technologów uważa że
nastąpi eksplozja technologii gdy
sztuczna inteligencja będzie się uczyć i tworzyć
własne maszyny, mądrzejsze nawet
od nich samych.
Wtedy kwestia programowania
będzie w większości
poza naszą kontrolą.
Co jeśli sztuczna inteligencja uzna za konieczne
zaprogramowanie sobie odczuwania bólu,
dokładnie tak jak biologia ewolucyjnie
uznała to za konieczne w większości żywych organizmów
Czy roboty zasługują na te prawa?
Jednak może mniej powinniśmy się martwić
ryzykiem którym superinteligentne roboty
są dla nas, a zamiast tego spojrzeć
na niebezpieczeństwo którym my jesteśmy dla nich.
Cała nasza ludzka tożsamość opiera się na idei
ludzkiej unikalności: że jesteśmy tymi specjalnymi,
niepowtarzalnymi płatkami śniegu, którym należna jest dominacja
nad naturalnym światem. Ludzie mają długą historię
odmawiania innym bytom odczuwania
cierpienia jak ludzkość.
Podczas rewolucji naukowej, Rene Descartes
twierdził że zwierzęta to jedynie automatony,
roboty, jeśli tak wolisz. W takim razie zranienie królika
jest tak samo moralnie niewłaściwe
jak uderzenie wypchanego zwierzaka
I wiele z największych zbrodni wobec ludzkości
było usprawiedliwione przez sprawców
twierdząc że ofiary są bardziej
zwierzętami niż cywilizowanymi ludźmi.
Nawet bardziej problematyczne jest to, że mamy perspektywę zysku,
odmawiając robotom ich praw
Jeśli możemy zmusić rozumną sztuczną inteligencję
na przykład poprzez programowanie lub tortury
do spełniania naszych poleceń,
potencjał ekonomiczny jest nieskończony.
W końcu już tak robiliśmy.
Przemoc była używana by zmusić innych ludzi do pracy
i nigdy nie mieliśmy problemów
ze znalezieniem
ideologicznej wymówki.
Właściciele niewolników twierdzą, że niewolnictwo
było korzystne dla niewolników. Dało im dach nad głową
i nauczyło chrześcijaństwa.
Mężczyźni odmawiający kobietom prawa głosu twierdzą, że
dla własnych korzyści kobiety powinny
zostawić podejmowanie trudnych decyzji mężczyznom.
Hodowcy twierdzą że opieka nad zwierzętami i karmienie ich
usprawiedliwia ich wczesną śmierć
w imię naszej diety
Jeśli roboty staną się rozumne
będzie bardzo wiele argumentów
przekonujących że
powinny pozostać bez praw.
Szczególnie wśród tych, którzy na tym zyskają.
Sztuczna inteligencja wysuwa poważne pytania
o filozoficzne granice
Można spytać, co jeśli rozumne roboty
są świadome lub zasługujące na prawa
Zmusza nas to do bardziej podstawowych pytań
jak “Co czyni nas ludźmi?”
“Co sprawia że zasługujemy na prawa?”
Niezależnie jak uważamy, pytania te
mogą potrzebować odpowiedzi w niedalekiej przyszłości
Co zrobimy gdy roboty
zaczną domagać się swych praw?
Czego roboty domagające się praw
mogą nas nauczyć o nas samych?
Nasi przyjaciele z Wisecrack nakręcili film
zgłębiający właśnie to pytanie, korzystając z filozofii świata Zachodu.
Wisecrack robi rozkłada i bada popkulturę
w unikalny i filozoficzny sposób.
Kliknij tu by zobaczyć ten film
i subskrybować ich kanał