Vídeo
Transcrição
Imagine um futuro onde a sua torradeira
prevê que tipo de torrada você quer.
Durante o dia
ela escaneia a internet em busca de novos e
interessantes tipos de torrada. Talvez ela
pergunte sobre o seu dia e queira conversar
sobre suas descobertas e nova
tecnologia de torrada. A que ponto
ela se tornaria uma pessoa? Quando você se perguntaria
se sua torrada tem sentimentos?
Se ela tiver, tirar ela da tomada seria assassinato?
E será que você ainda seria dono dela?
Será que um dia seremos forçados a dar nossas máquinas
direitos?
IA já está em todo lugar.
Ela se certifica que os mercados estão estocados
com comida suficiente,
ela te providencia as propagandas certas
e você talvez tenha lido uma
história escrita inteiramente por uma máquina.
Hoje em dia, olhamos para um aplicativo como Siri
e rimos de suas emoções primitivas
simuladas, mas é provável que nós teremos
que lidar com seres que deixam difícil
definir a linha entre o real e
a humanidade simulada.
Existem máquinas já existentes que
merecem direitos?
Provavelmente ainda não, mas se elas surgirem,
nós não estamos preparados.
A maior parte da filosofia de direitos não está equipada para
lidar com o caso de uma Inteligência Artificial.
A maioria dos pedidos por direitos para
humanos ou animais se baseiam
na questão de consciência.
Infelizmente ninguém sabe o que
consciência é.
Alguns dizem que é algo imaterial, outros dizem que é
um estado de matéria, como gás ou líquido.
Independente da definição exata,
nós temos um conhecimento intuitivo de
consciência porque nós a experienciamos.
Nós estamos cientes de nós mesmos e dos
nossos arredores e sabemos
como inconsciência parece.
Alguns neurocientistas acreditam que qualquer
sistema avançado o suficiente pode gerar
consciência. Então, se sua torradeira
fosse potente o suficiente talvez ela
se tornasse consciente. Se ela se tornasse, ela
mereceria direitos?
Bem, não tão rápido.
Será que o que nós definimos como direitos faria sentido para ela?
Consciência dá para os seres direitos
porque ela dá para o ser a
habilidade de sofrer. Significa que
ela não apenas sente dor, mas está ciente dela.
Robôs não sofrem e provavelmente não
iriam a não ser que nós os programássemos para isso.
Sem dor ou prazer não há
preferência e direitos não têm sentido.
Os nossos direitos humanos estão conectados
com a nossa programação. Por exemplo, nós
não gostamos de dor porque nosso cérebro evoluiu
para nos manter vivos, para nos impedir de tocar
no fogo ou para nos fazer correr de
predadores. Então nós inventamos direitos que nos
protegem de acontecimentos que nos causem dor.
Até mesmo direitos abstratos como
liberdade estão enraizados na forma que nossos cérebros
foram feitos para detectar o que é justo e o que é
injusto. Uma torradeira que não pode se mover,
se importaria em ser trancada em uma gaiola?
Ela se importaria em ser desmontada
se não tivesse medo da morte? Ela se
importaria em ser insultada se não tivesse
auto-estima? Mas e se programássemos o robô
para sentir dor e emoções,
para preferir justiça do que injustiça, prazer do que
dor e estar ciente disso? Isso faria
deles suficientemente humano?
Muitos tecnólogos acreditam que uma explosão
tecnológica ocorreria quando inteligência
artificial pudesse aprender e criar sua
própria inteligência artificial,
ainda mais inteligentes do que eles mesmos. Nesse ponto
a questão de como robôs são
programados vai estar fora de nosso
controle.
E se uma inteligência artificial achasse
necessário programar a habilidade de
sentir dor, como a evolução biológica
achou necessária na maior parte dos seres
vivos? Robôs merecem esses direitos?
Talvez nós devêssemos nos preocupar menos
com o risco que robôs super-inteligentes
seriam para nós e mais com
o perigo que nós provocamos a eles. Toda a nossa
identidade humana é baseada na ideia de
excepcionalismo humano, que nós somos únicos e
especiais e destinados a dominar o
mundo natural. Humanos tem história
de negar que outros seres vivos são capazes
de sofrer como nós. No meio da
Revolução Científica, René Descartes
argumentou que animais são autômatos, como
robôs. Assim, machucar um coelho
é tão moralmente repugnante quanto
socar um animal de pelúcia. E muitos dos maiores
crimes contra a humanidade
foram justificados por seus causadores
na ideia de que as vitimas eram mais
animais do que humanos civilizados. Ainda mais
problemático é que temos um interesse
econômico em negar direitos para robôs. Se pudermos
forçar uma IA consciente, possivelmente através de
tortura programada, em fazer como
o que desejamos,
o potencial econômico não tem limites.
Nós já fizemos isso antes, afinal. Violência
foi usada para forçar outros humanos em
trabalhar, e nunca tivemos problema
em inventar uma justificação
ideológica. (“Os deuses querem ouro!”)
Escravocratas argumentam que escravidão beneficiou
os escravos. Colocou um teto sobre suas cabeças
e os ensinou cristandade. Homens que
eram contra o voto de mulheres argumentaram que
era do próprio interesse delas deixar as
decisões difíceis para os homens. Fazendeiros argumentaram que
cuidar de animais e alimentar eles
justificava sua morte prematura para nossas
preferências dietéticas. Caso robôs tornem-se
conscientes,
não faltarão argumentos
para aqueles que dizem que eles
deveriam continuar sem direitos. Especialmente
daqueles que ganhariam lucro disso.
Inteligência Artificial traz sérias questões
sobre limites filosóficos.
Enquanto nos perguntamos se robôs são
conscientes ou merecem direitos,
isso nos força a pensar em questões básicas
como o que nos faz humanos, o que nos faz
merecedores de direitos?
Independente do que pensamos, essa pergunta
poderá ter de ser respondida num
futuro próximo.
O que faremos se os robôs
começarem a exigir seus direitos?
O que robôs exigindo direitos
nos ensina sobre nós mesmos? Nossos
amigos em Wisecrack fizeram um vídeo explorando
essa questão, usando a filosofia de
Westworld. Wisecrack fala sobre a cultura pop
em uma maneira única e filosófica.
Clique aqui para assistir o vídeo deles
e se inscrever em seu canal.