A OpenAI, desenvolvedora do popular ChatGPT, identificou sinais preocupantes em mensagens trocadas na plataforma. Tais comunicações eram atribuídas a uma pessoa que, futuramente, seria uma atiradora, levantando alarmes sobre o potencial uso da inteligência artificial para fins perigosos.
Contrariando o que se poderia esperar diante de uma ameaça iminente, a empresa decidiu não alertar as autoridades policiais no Canadá. A escolha da OpenAI de não acionar as forças de segurança, mesmo após detectar indícios de um ataque futuro, gera discussões sobre a responsabilidade social das companhias de tecnologia.
Este episódio ressalta a complexidade de gerenciar conteúdo potencialmente perigoso em plataformas de inteligência artificial. A detecção de sinais de alerta de uma futura atiradora pelo ChatGPT e a subsequente omissão de comunicação à polícia canadense pela OpenAI colocam em pauta os limites da vigilância e da intervenção corporativa.
Fonte: Olhar Digital