Foto: Reprodução

Investigação expõe métodos controversos no treinamento de Inteligência Artificial

Uma investigação publicada pelo jornal The Guardian trouxe à tona práticas questionáveis envolvendo o treinamento de sistemas de inteligência artificial. A reportagem aponta que milhares de trabalhadores foram contratados por uma empresa ligada à Meta para realizar tarefas que incluíam a coleta de dados em redes sociais e a análise de conteúdo sensível, como imagens pornográficas e de animais mortos.

A Scale AI, empresa parcialmente controlada pela Meta, utilizou a plataforma Outlier para recrutar profissionais de diversas áreas, oferecendo trabalho remoto com o lema “Torne-se o especialista de quem a IA aprende”. No entanto, a realidade das tarefas ia além do treinamento técnico.

Relatos de trabalhadores indicam que a coleta de dados incluía perfis de usuários de plataformas como Facebook e Instagram, abrangendo informações pessoais e até mesmo dados de menores de idade. Essa prática gerou desconforto ético em muitos dos envolvidos.

Além da coleta de dados, os colaboradores, conhecidos como “taskers”, foram expostos a materiais considerados perturbadores. Tarefas descritas incluem a transcrição de áudios pornográficos, a rotulagem de imagens de animais mortos e a análise de cenas violentas, contrariando promessas iniciais sobre a natureza do conteúdo.

O uso de obras artísticas protegidas por direitos autorais para treinar modelos de geração de imagem também foi apontado. Os trabalhadores foram instruídos a buscar conteúdo original em redes sociais, muitas vezes de artistas, para alimentar os sistemas.

As condições de trabalho também foram questionadas, com relatos de remuneração instável, monitoramento constante e processos seletivos não remunerados. Muitos sentiram que estavam contribuindo diretamente para a automação que poderia impactar suas próprias profissões futuras.

Em resposta, a Scale AI declarou que a Outlier oferece remuneração transparente e flexibilidade de horários, além de afirmar que projetos com conteúdo inadequado podem ser interrompidos e que não aceitam tarefas envolvendo abuso sexual infantil ou pornografia.

Deixe um comentário

Your email address will not be published.