Inteligência Artificial (IA) sempre remete a tecnologia avançada. É difícil acreditar que já está presente na vida de muitos. Já é utilizada para reconhecer a nossa fala e traduzir a outro idioma, sugerir vídeos/produtos a partir do que consumimos, e está presente nos sistemas de chats de algumas empresas e nos celulares como Siri, Cortana e Google Now.
Já algumas obras de ficção trazem previsões negativas com este tipo de tecnologia. A cada avanço tecnológico tem uma conspiração de se ter a Skynet no mundo real, ou faz alusão ao seriado Black Mirror, dentre outras com este tipo de abordagem.
A discussão deste post é exatamente essa: tais histórias fictícias da Inteligência Artificial podem se tornar reais? É tão perigoso assim?
Já adianto que não podemos colocar toda a atmosfera da IA no mesmo recipiente e julgar como um único objeto. Já comentei sobre alguns benefícios desta tecnologia no começo deste texto, e há muitos outros. Mas também existe fatores capazes de preocupar a segurança não de um país, mas da humanidade em si.
Autonomia
A tensão aumenta quando pessoas influentes no ramo da tecnologia como Elon Musk e o recém-falecido Stephen Hawking alertam sobre o perigo da IA. Ambos concordam da capacidade desses sistemas superar a humana, e a tendência é aprimorar cada vez mais.
Até esse ponto não há problema. O que realmente preocupa é a possibilidade da Inteligência Artificial agir de forma autônoma, ou seja, independentemente da decisão humana.
Um sistema só será autônomo se os desenvolvedores assim o fizerem. Há quem defende que jamais alguém desenvolveria algo totalmente autônomo. Outros afirmam o oposto, e por isso é preciso determinar qual a melhor maneira de manter sob controle; tudo para garantir uma implementação consciente desse resultado.
Armas Autônomas
Mesmo não sendo completamente, já existem armas com diferentes níveis de capacidade autônomas. Tal tecnologia expande a possibilidade de eliminar vidas sem a intervenção direta do ser humano, além da possibilidade do sistema ser hackeado e apresentar comportamentos contrários ao implementado originalmente.
Empresas de robótica de todo o mundo já assinaram uma carta aberta direcionada às Nações Unidas com o objetivo de banir armas autônomas no âmbito internacional. Ao contrário de armas nucleares, as armas com inteligência artificial não possuem recursos limitados e são constantemente barateados. A sua produção em massa é viável não apenas nos conflitos internacionais, mas para assassinar pessoas sob o comando de quem tiver tal tecnologia.
Já existem regulamentações que obrigue o controle de toda arma autônoma por um ser humano. A responsabilidade sempre caberá à pessoa, cujos princípios morais e comportamentos são julgáveis, ao contrário de máquinas.
Porém a solução não se limita a atribuir responsabilidade aos humanos…
O Poder de Decisão
Os sistemas são capazes de tomar decisões por conta própria conforme o escopo de sua criação. Pense no carro autônomo: se não atribuir a capacidade de decisão no automóvel, é apenas um veículo comum totalmente dependente de motoristas.
Cabe ao operador humano ter o poder sobre a decisão da tecnologia. A dificuldade está em como empregar o sistema de decisão na máquina.
Os sistemas a princípio executam tarefas específicas, mas o aprimoramento constante expande as possibilidades de cognição e ação da tecnologia. O humano responsável precisa estar ciente do nível de complexidade da ferramenta utilizada e coordenar sua função de acordo com esse nível.
O responsável também precisa supervisionar a execução da máquina. Mas a supervisão pode apresentar um problema: a taxa de erro do sistema é extremamente baixa, e isto traz um senso de segurança superestimado ao supervisor, e assim tem o risco de não perceber no momento certo quando algo de errado acontece.
O limite desta capacidade está nas mãos da regulamentação, já que a tecnologia sempre está se aprimorando. Atribuir tal controle ao ser humano traz consigo falhas naturais e divergência na compreensão do potencial operatório e cognitivo da tecnologia.
Mesmo de forma indireta, acredito que a ficção pode ajudar na prevenção de se aprimorar tais tecnologias. Histórias distópicas podem alertar sobre o futuro (mesmo exagerando nas suposições) se não der o devido cuidado. Universos pós-apocalípticos podem mostrar a reconstrução do mundo sem repetir os erros cometidos.
Inteligência Artificial é uma tecnologia fascinante demais para se desenvolver armas. Espero que seu uso seja cada vez mais focado na preservação da vida, como já acontece em alguns casos.
Saiba mais
How much autonomy is too much for AI?
Here’s the real reason artificial intelligence could be a threat
0 Comments
3 Pingbacks