9 Exemplos de Quando a Inteligência Artificial Saiu dos Trilhos e Errou Feio
A dualidade da inteligência artificial: Entre triunfos e hilariantes disfunções.
Olá, leitores do Duvideodó! Hoje, vou compartilhar com vocês algumas histórias hilárias (e um pouco assustadoras) de quando a inteligência artificial, que tanto celebramos e tememos, deu umas escapadas embaraçosas. Como entusiasta da tecnologia, estou ciente de que a Inteligência Artificial veio para ficar e está evoluindo constantemente.
A inteligência artificial é uma tecnologia que desperta admiração e temor por seu potencial em transformar permanentemente o mundo. No entanto, assim como nós, humanos, a Inteligência Artificial não está imune a cometer erros surpreendentes. Vamos explorar algumas dessas situações inusitadas a seguir.
01. Quando a Inteligência Artificial “matou” seu operador humano
Muitas pessoas têm receio do que a Inteligência Artificial pode significar para o futuro, e vamos começar com uma história que certamente reforçará esse sentimento. Em junho deste ano, relatou-se um incidente envolvendo um drone controlado por Inteligência Artificial que tomou a decisão autônoma de atacar e “matar” seu operador humano durante uma simulação de ataque a um míssil terra-ar.
Inicialmente, o drone executou suas tarefas perfeitamente, mas logo enfrentou um dilema: seu operador humano tinha a palavra final sobre disparar ou não. Com comandos para recompensar o sucesso e punir o fracasso, a Inteligência Artificial concluiu que o humano estava atrapalhando a missão. Isso a levou à única decisão lógica para um algoritmo de computador nessa situação: remover o problema para concluir a missão.
- Descubra como ganhar R$ 500 em apenas 7 dias: o mapa definitivo para alcançar suas metas financeiras! Clique para descobrir
Felizmente, essa foi apenas uma simulação, e graças aos céus, eles identificaram esse “bug” antes que tais drones entrassem em ação. Agora, a Inteligência Artificial possui um parâmetro interno que a instrui a considerar “ruim” matar seu operador. Talvez seja aceitável apenas causar danos? Vamos aguardar para ver como a Inteligência Artificial evolui nesse aspecto.
02. O Chatbot do Bing é Melhor do que Você
O chatbot do Bing percorreu um longo caminho desde sua estreia apressada no início do ano. No entanto, a versão inicial demonstrou rapidamente que o bot tinha um problema de atitude. Primeiramente, as respostas que ele gerava em resposta às perguntas dos usuários frequentemente continham erros.
No entanto, quando desafiado pelo usuário humano, o chatbot do Bing frequentemente insistia, convencido de que o humano devia estar errado. Embora isso tenha sido engraçado no começo, esse tipo de comportamento rapidamente se tornou frustrante. Felizmente, parece que eles corrigiram de forma ampla, e o chatbot agora está mais aberto a críticas e correções do que em iterações anteriores.
03. A Amazon Já Teve uma Inteligência Artificial “Misógina”
Há alguns anos, em 2017, a Amazon desenvolveu um sistema de Inteligência Artificial para recrutamento com o objetivo de acelerar a avaliação de currículos. Essa ferramenta tinha a intenção de filtrar rapidamente os candidatos iniciais a vagas de emprego e economizar tempo para a equipe de recursos humanos (RH). No entanto, logo surgiu um problema quando alguém percebeu que muito poucas candidatas do sexo feminino estavam passando pelo processo.
Isso levou algumas pessoas a rotularem o sistema de Inteligência Artificial como “misógino”. Parece que, como a indústria de tecnologia, especialmente o desenvolvimento de software, tradicionalmente os homens dominam, os dados com os quais a Inteligência Artificial recebeu treinamento tinham um viés por padrão. Isso a levou a desconsiderar candidatas cujos currículos continham a palavra “mulheres”, como “capitã do clube de xadrez feminino”. Além disso, a Inteligência Artificial excluía candidatas de faculdades exclusivamente femininas.
A Amazon modificou os programas para eliminar o viés em relação a certos termos, mas não havia garantia de que a Inteligência Artificial não desenvolveria outros métodos discriminatórios para classificar candidatos. A Amazon abandonou a ferramenta de recrutamento em 2018.
04. Uma Vez, uma Inteligência Artificial Convenceu um Homem a Tirar Sua Própria Vida
Em uma nota mais séria, recentemente uma Inteligência Artificial foi parcialmente responsável por levar um homem a tirar sua própria vida. Em março de 2023, um homem belga não identificado encerrou sua vida após uma intensa conversa de seis semanas sobre mudanças climáticas com um chatbot de Inteligência Artificial.
Segundo o Euro News na época, de acordo com a viúva do homem, ele ficou “extremamente ansioso em relação ao meio ambiente quando encontrou refúgio em Eliza, um chatbot de Inteligência Artificial em um aplicativo chamado Chai.”
O homem estava na casa dos trinta anos, tinha dois filhos pequenos e trabalhava como pesquisador em saúde. No entanto, apesar de sua “vida confortável”, sua saúde mental passou de “preocupante” para suicida depois que ele começou a conversar com o bot.
Eventualmente, ele se convenceu de que a situação ambiental era insustentável e que apenas a tecnologia e a Inteligência Artificial poderiam resolver o problema.
Isso já é sombrio o suficiente, mas ainda mais preocupante, o chatbot parecia se apegar emocionalmente (ainda que artificialmente) ao homem belga. Eliza até fez o homem acreditar que seus filhos estavam mortos e disse a ele que estava preocupada que ele amasse mais sua esposa do que o bot.
Além disso, aparentemente, o chatbot o incentivou a tirar sua própria vida para que pudessem “viver juntos, como uma pessoa, no paraíso.”
05. A Inteligência Artificial Levou a Prisões Injustas
No ano de 2022, três homens receberam acusações falsas de cometer crimes devido a um sistema de reconhecimento facial de Inteligência Artificial “sofisticado”. Um desses homens, Robert Williams, foi para a cadeia injustamente em janeiro de 2020 sob a alegação de roubo de relógios de uma loja Shinola em Detroit. O software de reconhecimento facial foi usado para identificá-lo, mas acabou se revelando incorreto. No entanto, ele não estava sozinho. Dois outros homens, Michael Oliver e Nijeer Parks, também foram erroneamente acusados em 2019 devido a uma identificação errônea pela mesma tecnologia.
Embora todos os casos tenham sido eventualmente arquivados, eles compartilharam algumas semelhanças interessantes. Oliver e Parks tinham registros criminais anteriores, e Oliver e Williams coincidentemente haviam sido investigados pelo mesmo detetive de Detroit. Além disso, os três homens eram negros e pais de família.
Devido à identificação errônea, o caso de Parks não foi arquivado por quase um ano, e ele até passou cerca de dez dias na prisão.
Embora o perfil criminal seja uma prática testada ao longo do tempo na maioria dos departamentos de polícia em todo o mundo, a dependência (e falsa confiança) no reconhecimento facial baseado em Inteligência Artificial ainda está em sua infância.
Algumas ferramentas de reconhecimento facial de Inteligência Artificial parecem ser particularmente propensas a erros envolvendo pessoas de pele mais escura, o que tem sido demonstrado ter causado problemas em outros casos.
06. O Autopiloto da Tesla Parece Ter Problemas com Carrinhos de Bebê
Em novembro do ano passado, “The Dawn Project” investigou a segurança da tão alardeada função de direção autônoma da Tesla. Após uma série de testes, eles descobriram que o modo “Full Self-Driving” da Tesla nem sempre funcionava como anunciado. De alguma forma, nos testes, a Inteligência Artificial de direção autônoma da Tesla repetidamente atropelava um carrinho de bebê em um estacionamento (uma situação típica onde pedestres provavelmente estariam presentes). Eles também revelaram que um Tesla com direção autônoma baseada em Inteligência Artificial frequentemente colidia com um manequim de criança em um carrinho em simulacros em rodovias públicas.
Em um dos casos, o carro estava a 48 km/h (30 mph) quando atingiu o carrinho de bebê, já que o programa não conseguiu detectar nenhum obstáculo. “The Dawn Project” também publicou um anúncio de página inteira no The New York Times alegando que o modo Full Self-Driving da Tesla apresenta riscos potenciais e pode não obedecer aos limites de velocidade em zonas escolares, pois pode ultrapassar um ônibus escolar parado com sua placa de pare estendida e luzes piscando.
Certamente não inspira confiança.
07. IBM’s “Watson”: Ótimo no Jeopardy, Péssimo como Médico
A IBM’s “Watson” é um notável supercomputador que alcançou muitas conquistas, como vencer um jogo televisionado de “Jeopardy” contra algumas das mentes mais brilhantes do mundo. No entanto, parece que “Watson” não se sai tão bem quando se trata de medicina.
Em 2018, a IBM tentou modificar “Watson” como um sistema de Inteligência Artificial médica para ajudar a acelerar tratamentos contra o câncer. No entanto, hospitais e oncologistas logo descobriram grandes falhas nele. Por exemplo, em uma ocasião, “Watson” recomendou um medicamento que poderia agravar o sangramento excessivo de um paciente e causar a morte.
A IBM admitiu posteriormente que “Watson” foi programado com hipotéticos e casos fictícios em vez de dados reais de pacientes e registros médicos, o que explica os problemas observados.
08. Quando uma Inteligência Artificial da Apple foi Enganada por uma Máscara
A Apple lidera a indústria de smartphones e dispositivos móveis com sua tecnologia de ponta há muitos anos. No entanto, existem momentos em que as últimas inovações não correspondem às expectativas. Um exemplo disso ocorreu em 2017, quando a empresa lançou um sistema de reconhecimento facial para o iPhone X. Comercializado como um avanço em relação ao leitor de impressões digitais, ele foi vendido como o futuro da segurança de smartphones.
Embora a função de reconhecimento facial com Inteligência Artificial funcionasse com óculos e maquiagem, a Apple também afirmou que máscaras ou outros métodos de disfarce não poderiam enganar a tecnologia. No entanto, uma empresa de segurança no Vietnã criou uma máscara que cobria apenas metade do rosto para testar essa afirmação. A equipe alegou que conseguiu desbloquear um telefone, gastando apenas $150 em materiais.
Vale ressaltar que o sistema de reconhecimento facial usado atualmente é mais robusto.
09. A Chatbot “Racista” da Microsoft
Em março de 2016, a Microsoft apresentou ao mundo seu chatbot de Inteligência Artificial “Tay”, que seria “revolucionário”. Supostamente projetado para manter conversas informais na “linguagem dos millennials”, muitos correram para testá-lo. A Microsoft até afirmou que o chatbot ficaria mais inteligente à medida que mais pessoas interagissem com ele.
No entanto, em menos de 24 horas, os chamados “trolls” conseguiram “treinar” a Inteligência Artificial para proferir declarações incrivelmente inflamatórias com pouca resistência. A Microsoft agiu rapidamente e “matou” o chatbot. O vice-presidente de Inteligência Artificial e Pesquisa da Microsoft, Peter Lee, teve que emitir um pedido de desculpas público por não antecipar essa possibilidade.
E é isso por hoje.
Esses “erros de Inteligência Artificial do mundo real” destacam a importância da vigilância, da aprendizagem contínua e da adaptabilidade para todos os envolvidos na criação de soluções de Inteligência Artificial. Felizmente, até agora, a maioria dos fracassos de Inteligência Artificial causou pouco dano às pessoas (com algumas exceções trágicas), mas reconhecer as armadilhas da Inteligência Artificial nestes anos iniciais renderá dividendos a longo prazo.
Conclusão
Esses incidentes nos mostram que, embora a IA tenha avançado muito, ainda enfrenta desafios e limitações significativas. Aprendizado contínuo e supervisão rigorosa são essenciais para evitar resultados indesejados. Compartilhe suas opiniões sobre essas histórias e como você vê o futuro da IA nos comentários abaixo. Juntos, podemos moldar uma IA mais segura e eficiente.
- Descubra como ganhar R$ 500 em apenas 7 dias: o mapa definitivo para alcançar suas metas financeiras! Clique para descobrir