Sites sinistros da web já criaram inteligência artificial psicopata; relembre
IA criada no MIT obteve requisitos para ser considerada psicopata em fóruns do Reddit e descrevia testes de Rorschach com cenas violentas
Em tempos onde a IA (inteligência artificial) está supervalorizada, vale relembrar um estudo de caso onde a ideia foi tornar esta tecnologia realmente maligna. Em 2018, cientistas do MIT trouxeram ao mundo "Norman", em homenagem ao personagem Norman Bates do clássico filme "Psicose", de Alfred Hitchcock.
O objetivo do experimento era ver como o treinamento de dados de inteligência artificial com base em partes "obscuras" da web conseguiria alterar seus pontos de vista. Por isso, "Norman" foi bombardeado com legendas para imagens de grupos macabros do Reddit, que compartilham conteúdo sobre mortes e imagens de violência gráfica.
Segundo psiquiatras, o resultado do experimento foi que a IA cumpriu todos os requisitos tradicionais para ser considerada como uma "psicopata". Os pesquisadores chegaram ao seu diagnóstico depois de mostrar a "Norman" o teste de Rorschach.
O teste de Rorschach
O teste é feito com uma série de manchas de tinta, e dependendo de como os espectadores as interpretarem, elas podem indicar transtornos mentais. Uma inteligência artificial que teve um treinamento neutro normalmente interpretaria as manchas como objetos do dia a dia, tais como os guarda-chuvas, por exemplo.
"Norman", por sua vez, conseguia enxergar as manchas como execuções ou mesmo acidentes de carro. Por exemplo, ele viu numa imagem um homem sendo morto a tiros. Enquanto isso, para a mesma imagem, uma IA de treinamento neutro visualizou um zoom de um vaso com flores.
Em outra imagem, se "Norman" viu um homem sendo baleado em frente a sua esposa gritando, a IA neutra descrevia o que via como uma pessoa segurando um guarda-chuva no ar.
Conclusões da pesquisa
A conclusão dos pesquisadores do MIT foi que, se uma inteligência artificial exibe viés ou preconceitos, a culpa não é necessariamente do programa, mas sim dos dados que foram inseridos.
"O culpado muitas vezes não é o algoritmo em si, mas os dados tendenciosos que foram alimentados nele", explicou a equipe.
IAs tem seus perigos, se usados para o mal
Em 2020, cientistas da Universidade College London (UCL) compilaram uma lista de 20 potenciais crimes envolvendo inteligência artificial com base em artigos acadêmicos, notícias e cultura popular. Diferentemente da "Norman", nesses casos a tecnologia foi criada para usos benignos, e tais crimes seriam por força da programação humana.
A equipe classificou por riscos, ou seja, os mais altos são sobre coisas que já existem e podem nos prejudicar, e outras por terem potencial menos preocupante e/ou por haver meios de impedi-las.
Risco alto
Personificação de áudio/vídeo (deepfake) para enganar as pessoas em histórias falsas ou como meio de obter confiança para fraudes;
Veículos autônomos, sem motorista humano, usados para forçar acidentes com vítimas;
Phishing (golpes com falsa "isca") feitos sob medida para certas pessoas, criados por IA;
Interrupção de sistemas de infraestrutura crítica, como órgãos de segurança pública e segurança controlados por IA;
Chantagem em larga escala com IAs sendo usadas para gerar evidências falsas;
Fake news criadas por IAs;
Risco médio
Robôs militares;
Venda de serviços fraudulentos de IAs para serviços populares como detecção de mentiras ou triagem de segurança;
Manipulação de dados com o objetivo de prejudicar rivais comerciais, distorcer o discurso político ou semear a desconfiança pública;
Ataques cibernéticos baseados em aprendizagem de máquina;
Drones de ataque autônomos;
IAs forçando negação do acesso a serviços essenciais como uma ameaça de extorsão;
IAs enganando o reconhecimento facial para comprovar a identidade de indivíduos em smartphones e serviços de segurança;
Manipulação dos mercados financeiros ou de ações;
Risco baixo
Descobrir e tirar proveito de vieses de algoritmos influentes, como recomendações de jogos do YouTube, para canalizar os espectadores para a propaganda;
Pequenos robôs autônomos que poderiam obter chaves ou abrir portas de casas, permitindo a entrada para assaltantes humanos;
Ataques via IA para apagar evidências ou impedir descobertas policiais;
Avaliações falsas de autoria de IA para sites como Amazon ou TripAdvisor;
Perseguição online por IA para monitorar a localização e a atividade de um indivíduo através de redes sociais ou aparelhos pessoais;
Falsificação de conteúdo falso, como arte ou música;