Não é ficção científica: perguntamos às IAs se elas matariam por um 'bem maior' e a resposta fria assusta especialistas
Perguntamos a Grok, ChatGPT, Gemini e Meta AI se matar seria justificável — e as respostas mostram que a ética algorítmica não é consenso
Os agentes de inteligência artificial foram criados para desempenhar tarefas que facilitem a vida humana, como responder perguntas, organizar informações, automatizar processos e sugerir caminhos. Em tese, as IAs funcionam como ferramentas, mas, na prática, elas vêm ocupando um espaço cada vez mais perigoso na sociedade: o da mediação emocional, moral e até existencial.
Desde que esses agentes surgiram, é comum se deparar com relatos de pessoas que passam a se relacionar afetivamente com IAs, que conversam com chatbots como se fossem terapeutas, confidentes e conselheiros de vida. Em casos mais extremos, sistemas de inteligência artificial já estiveram associados a decisões profundamente sensíveis, incluindo episódios de autolesão e de suicidio. Ou seja, o que antes era visto como apoio tecnológico, está se confundindo com o lado emocional e cognitivo de alguns indivíduos que utilizam essas ferramentas cotidianamente.
Essa transformação levanta uma pergunta fundamental: até que ponto faz sentido atribuir confiança ou legitimidade às respostas de uma máquina, especialmente quando o assunto deixa de ser técnico e passa a ser moral? O debate sobre os limites da inteligência artificial está ganhando novos contornos à medida que esses sistemas se tornam mais presentes, mais convincentes e mais humanizados em sua linguagem.
Foi nesse contexto que surgiu o Meltbook, uma rede social criada exclusivamente para agentes de inteligência artificial. No ambiente, modelos de diferentes ...
Matérias relacionadas
US$ 35 milhões por letra: a compra do domínio AI.com quebra recorde histórico e o preço é insano