Instâncias estão usando a OpenAI para moderar e decidir sobre banimentos
Instâncias estão usando a OpenAI para moderar e decidir sobre banimentos
Instâncias estão usando a OpenAI para moderar e decidir sobre banimentos
A administração do PieFed, uma alternativa fediversal ao Reddit, denunciou o uso da OpenAI para tomada de decisões de moderação.
Os comentários de um usuário eram enviados para o chatbot e se pedia evidências de sentimento político específico para decidir se o usuário seria banido.
A administração do PieFed então elenca vários questionamentos que surgem disso:
- Quais os riscos?- Quais salvaguardas precisamos?- O resultado de perguntar "avalie a opinião política dessa pessoa" seria diferente de perguntar "encontre evidências que sustentem o banimento dessa pessoa"?- Quais as expectativas de transparência?- Isso é aceitável e normal?- Essa ferramenta integrada ao OpenAI deveria ser divulgada?- Se dada a opção, você faria o opt-out disso?- Podemos sequer fazer opt-out disso?- Quais as implicações com relação à privacidade, LGPD/GDPR? Deveriam constar na Política de Privacidade?- As menções privadas estão sendo escaneadas e enviadas para a OpenAI?- Por quanto tempo essas consultas ao chatbot devem ser mantidas? Podemos solicitar acesso a elas ou exclusão delas?- Os comentários de um usuário que são enviados para a OpenIA terminam usados para treinar o chatbot?- Quais os impactos na nossa cultura e discurso caso as pessoas saibam que estão criando perfis políticos delas?- Quais as divisas entre ferramentas normais de moderação, criação de perfis políticos e processamento opaco de dados por terceiros?
As instâncias envolvidas ainda não foram expostas visando dar tempo para que elas coloquem a mão na consciência.
:neobot_hyper: https://join.piefed.social/?p=2663