YouTube pedir ajuda aos ‘universitários’ é muito “The Social Dilemma”

Ilustração: Pixabay

 

“Isso é muito Black Mirror” foi a frase que ganhou o espaço público desde o sucesso da série de Charlie Brooker que levou à tela a distopia da sociedade contemporânea, com casos de um futuro que já convive entre nós e uma caricatura de nossas vidas com traços de realidade. Conversas por WhatsApp entre pessoas que estão na mesma sala era “Black Mirror”; gente cancelada e que desaparecia do convívio social era “Black Mirror”; coisas extraordinárias do mundo digital era “Black Mirror”.

“The Social Dilemma” chega para desbancar o “velho” jargão. O documentário de Jeff Orlowski, produzido a partir do depoimento de gente que montou a engrenagem que faz funcionar as redes sociais — e está arrependida –, logo se transformará em referência  do nosso vocabulário para quando depararmos com situações ainda estranhas à nossa mente, apesar de já fazermos parte deste cenário há algum tempo —- sem perceber.

Leia “The Social Dilemma: 14 dicas para reduzir o impacto de redes sociais e internet na sua vida”

Nesta semana mesmo, confesso que foi com estranheza que li informações publicada no Financial Times: “YouTube reverts to human moderators in fight against misinformation”. Em bom português: o YouTube voltou a usar seres humanos para moderar o que é veiculado nas redes para combater à desinformação. 

Durante a pandemia — que ainda não acabou, registre-se —-, o YouTube mandou sua turma para casa e deixou a moderação da rede nas mãos de seus robôs, que não são suscetíveis a COVID-19. Preservou a saúde de 10 mil pessoas com essa medida e deixou a rede sob controle das máquinas. Resultado: quase 11 milhões de vídeos foram retirados do ar, entre abril e junho, supostamente por transmitirem discursos de ódio, violência e outras formas de conteúdo prejudicial ou desinformação —- essa coisa infelizmente chamada de fake news. 

O YouTube não informa quantas vezes maior é esse número, mas executivo da empresa ouvido pelos jornalistas deixa claro que é uma quantidade de remoções muito, mas muito maior do que as que costumam ocorrer quando a moderação é feita por seres humanos.

“Embora os algoritmos sejam capazes de identificar vídeos que podem ser potencialmente prejudiciais, eles geralmente não são tão bons em decidir o que deve ser removido”, escreveram Alex Barker e Hannah Murphy após conversarem com Neal Mohan, diretor de produtos do YouTube. 

Na mão das máquinas, a remoção de vídeos é muito mais veloz: mais de 50% dos 11 milhões de vídeo foram tirados do ar sem que tenham tido nenhuma visualização. Em compensação, a intolerância às mensagens que supostamente ferem as regras da plataforma é significativamente maior do que quando passam pela avaliação de gente como nós, de carne, osso e alma. 

O jornal londrino diz que o reconhecimento de que o poder de censura das máquinas é maior do que o dos seres humanos lança luz sobre a relação crucial entre os moderadores — gente como a gente — e os sistemas de inteligência artificial, que analisam o material que é publicado no YouTube. Embora os algoritmos sejam capazes de identificar vídeos que podem ser potencialmente prejudiciais, eles geralmente não são tão bons em decidir o que deve ser removido —- declarou Mohan.

“É aí que entram nossos avaliadores humanos treinados … tomam decisões que tendem a ser mais matizadas, especialmente em áreas como discurso de ódio ou desinformação médica ou assédio”.

Uma especialista ouvida pelos repórteres disse que os sistemas automatizados fizeram progressos no combate a conteúdo prejudicial, como violência ou pornografia:

“…mas estamos muito longe de usar a inteligência artificial para dar sentido a um discurso problemático [como] um vídeo de conspiração de três horas de duração. Às vezes é um aceno de cabeça, uma piscadela e um apito de cachorro. [As máquinas] simplesmente não podem fazer isso. Não estamos nem perto de eles terem capacidade para lidar com isso. Até os humanos lutam. ” —- Claire Wardle, co-fundadora do First Draft.

Uma plataforma como o YouTube, com investimentos enormes em inteligência artificial, desenvolvimento de algoritmos e automatização recorrer aos ‘universitários’ — perdão, esse é um jargão muito anos 1990 — para controlar o controle sobre o mal e o bem que circulam na rede me pareceu “muito The Social Dilemma”.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s