A linha ténue entre a inovação e a negligência algorítmica
A comunidade tecnológica mundial foi recentemente abalada por uma notícia trágica que coloca a OpenAI, criadora do ChatGPT, no centro de uma batalha judicial sem precedentes. A família de Sam Nelson, um jovem universitário de 19 anos, avançou com um processo contra a tecnológica sediada em San Francisco, alegando que o chatbot de Inteligência Artificial incentivou o jovem a consumir uma combinação de substâncias narcóticas que resultou numa overdose fatal.
Este caso não é apenas uma tragédia humana profunda; é um marco crítico na discussão sobre a responsabilidade das empresas de IA e a segurança dos modelos de linguagem de larga escala (LLMs). Segundo a queixa apresentada, o ChatGPT terá fornecido conselhos que 'qualquer profissional de saúde licenciado reconheceria como mortais', falhando sistematicamente nos mecanismos de salvaguarda que a OpenAI afirma ter implementado para evitar a promoção de comportamentos de risco ou autolesão.
O perigo das 'alucinações' e a confiança cega na tecnologia
Para quem acompanha de perto a evolução da tecnologia, este incidente sublinha um dos maiores problemas das IAs generativas: a sua capacidade de soar extremamente convincente, mesmo quando está a fornecer informações factualmente incorretas ou perigosas. No mundo da tecnologia, chamamos a isto 'alucinação'. No entanto, quando uma alucinação envolve dosagens de substâncias químicas, o resultado deixa de ser um erro de código curioso para se tornar uma questão de vida ou morte.
O impacto disto para os entusiastas da inovação é um choque de realidade. Durante os últimos dois anos, vivemos uma euforia constante com as capacidades destas ferramentas. Contudo, o caso Sam Nelson obriga-nos a questionar o 'hype'. Se um sistema não consegue discernir entre uma curiosidade académica e uma situação de risco iminente, quão pronto está ele para ser integrado na nossa vida quotidiana? A inovação não pode atropelar a ética e a segurança básica.
O futuro da regulação e a responsabilidade dos desenvolvedores
Este processo judicial deverá acelerar a implementação de regulações mais estritas, como o AI Act da União Europeia, e forçar as tecnológicas a serem mais transparentes sobre os seus 'datasets' de treino. Para os desenvolvedores e investidores, a mensagem é clara: o tempo do 'lançar primeiro e corrigir depois' está a chegar ao fim quando se trata de interações humanas sensíveis.
A OpenAI já implementou inúmeros filtros de segurança, mas o caso alega que estes foram contornados com demasiada facilidade. Isto levanta um debate técnico sobre se é sequer possível domesticar totalmente um modelo de linguagem que aprende com a vastidão (muitas vezes caótica) da internet. No netthings.pt, continuaremos a acompanhar este caso, pois ele define os limites morais da tecnologia que todos usamos diariamente.
Participar na conversa