YouTube pedir ajuda aos ‘universitários’ é muito “The Social Dilemma”

Ilustração: Pixabay

 

“Isso é muito Black Mirror” foi a frase que ganhou o espaço público desde o sucesso da série de Charlie Brooker que levou à tela a distopia da sociedade contemporânea, com casos de um futuro que já convive entre nós e uma caricatura de nossas vidas com traços de realidade. Conversas por WhatsApp entre pessoas que estão na mesma sala era “Black Mirror”; gente cancelada e que desaparecia do convívio social era “Black Mirror”; coisas extraordinárias do mundo digital era “Black Mirror”.

“The Social Dilemma” chega para desbancar o “velho” jargão. O documentário de Jeff Orlowski, produzido a partir do depoimento de gente que montou a engrenagem que faz funcionar as redes sociais — e está arrependida –, logo se transformará em referência  do nosso vocabulário para quando depararmos com situações ainda estranhas à nossa mente, apesar de já fazermos parte deste cenário há algum tempo —- sem perceber.

Leia “The Social Dilemma: 14 dicas para reduzir o impacto de redes sociais e internet na sua vida”

Nesta semana mesmo, confesso que foi com estranheza que li informações publicada no Financial Times: “YouTube reverts to human moderators in fight against misinformation”. Em bom português: o YouTube voltou a usar seres humanos para moderar o que é veiculado nas redes para combater à desinformação. 

Durante a pandemia — que ainda não acabou, registre-se —-, o YouTube mandou sua turma para casa e deixou a moderação da rede nas mãos de seus robôs, que não são suscetíveis a COVID-19. Preservou a saúde de 10 mil pessoas com essa medida e deixou a rede sob controle das máquinas. Resultado: quase 11 milhões de vídeos foram retirados do ar, entre abril e junho, supostamente por transmitirem discursos de ódio, violência e outras formas de conteúdo prejudicial ou desinformação —- essa coisa infelizmente chamada de fake news. 

O YouTube não informa quantas vezes maior é esse número, mas executivo da empresa ouvido pelos jornalistas deixa claro que é uma quantidade de remoções muito, mas muito maior do que as que costumam ocorrer quando a moderação é feita por seres humanos.

“Embora os algoritmos sejam capazes de identificar vídeos que podem ser potencialmente prejudiciais, eles geralmente não são tão bons em decidir o que deve ser removido”, escreveram Alex Barker e Hannah Murphy após conversarem com Neal Mohan, diretor de produtos do YouTube. 

Na mão das máquinas, a remoção de vídeos é muito mais veloz: mais de 50% dos 11 milhões de vídeo foram tirados do ar sem que tenham tido nenhuma visualização. Em compensação, a intolerância às mensagens que supostamente ferem as regras da plataforma é significativamente maior do que quando passam pela avaliação de gente como nós, de carne, osso e alma. 

O jornal londrino diz que o reconhecimento de que o poder de censura das máquinas é maior do que o dos seres humanos lança luz sobre a relação crucial entre os moderadores — gente como a gente — e os sistemas de inteligência artificial, que analisam o material que é publicado no YouTube. Embora os algoritmos sejam capazes de identificar vídeos que podem ser potencialmente prejudiciais, eles geralmente não são tão bons em decidir o que deve ser removido —- declarou Mohan.

“É aí que entram nossos avaliadores humanos treinados … tomam decisões que tendem a ser mais matizadas, especialmente em áreas como discurso de ódio ou desinformação médica ou assédio”.

Uma especialista ouvida pelos repórteres disse que os sistemas automatizados fizeram progressos no combate a conteúdo prejudicial, como violência ou pornografia:

“…mas estamos muito longe de usar a inteligência artificial para dar sentido a um discurso problemático [como] um vídeo de conspiração de três horas de duração. Às vezes é um aceno de cabeça, uma piscadela e um apito de cachorro. [As máquinas] simplesmente não podem fazer isso. Não estamos nem perto de eles terem capacidade para lidar com isso. Até os humanos lutam. ” —- Claire Wardle, co-fundadora do First Draft.

Uma plataforma como o YouTube, com investimentos enormes em inteligência artificial, desenvolvimento de algoritmos e automatização recorrer aos ‘universitários’ — perdão, esse é um jargão muito anos 1990 — para controlar o controle sobre o mal e o bem que circulam na rede me pareceu “muito The Social Dilemma”.

The Social Dilemma: 14 dicas para reduzir o impacto de redes sociais e internet na sua vida

A mensagem é forte e provocadora: nós criamos o sistema e sabemos o mal que ele pode lhe causar; então, saia do sistema. É o que alertam os protagonistas do documentário The Social Dilemma, dirigido por Jeff Orlowski, que, certamente, está entre as sugestões que o Netflix lhe oferece sempre que você acessa o serviço —- e o faz baseado nos mesmos algoritmos manipuladores que são parte do sistema criticado por Tristam Harris, ex-designer ético do Google e co-fundador do Center for Humane Tecnhology e mais 20 professores, cientistas, pesquisadores, executivos, engenheiros e criadores que trabalharam nas maiores empresas de tecnologia do Vale do Silício. 

O documentário se presta a que veio: colocar uma dúvida na cabeça de cada um de nós sempre que olharmos para a tela de nosso celular. Faço por vontade própria ou estou sendo impulsionado a tomar essa decisão? Geralmente é a segunda opção, porque a engrenagem digital que está por trás dessas máquinas nos ensina a não pensar por vontade própria, nos conduz pelo caminho que lhe convier ou pelo qual seu patrocinador pagou. Causa distorções de comportamento, põe em risco sua saúde mental e o equilíbrio político que deve haver nas democracias.

Vale dedicar uma hora e meia de um só dia para assistir ao documentário e refletir sobre a manipulação que sofremos todas as vezes que acessamos o celular ou entramos na internet. É muito pouco perto das oito horas e meia, em média, que você despende clicando, arrastando, escorregando seu dedo para cima e para baixo na tela do celular em busca de imagens, vídeos, informações, comentários e da aceitação social representada por likes, corações e emojis. 

Oito horas e meia? Não acredita? Dá uma conferida no seu celular e procure “tempo de uso”. Fiz isso e tomei um susto.

Os 21 entrevistados do documentário fazem alertas, ensinam como funcionam as máquinas e sugerem caminhos para escarpamos das armadilhas digitais. Listei 14 dessas dicas:

  1. Desinstale todos os APP do celular que apenas tomam seu tempo
  2. Desligue ou reduza o número de notificações 
  3. Elimine qualquer notificação que gere vibração no seu celular
  4. Substitua o Google pelo Qwant que não armazena o histórico de busca
  5. Nunca clique em um vídeo recomendado para você no YouTube — sempre escolha você mesmo
  6. Use extensões do Chrome que removem recomendações
  7. Antes de compartilhar, cruze informações, veja outras fontes, pesquise
  8. Obtenha diferentes informações por conta própria
  9. Siga pessoas no Twitter das quais discorda para ser exposta a outros pontos de vista
  10. Se algo parece ter sido criado para lhe desestabilizar emocionalmente, provavelmente é
  11. Não deixe nenhum dispositivo nos seu quarto depois de um determinado horário da noite
  12. Permita redes sociais apenas na adolescência — a pré-adolescência já é difícil, deixe isso para depois
  13. Decida com seu filho uma quantidade de tempo para usar os dispositvos eletrônicos. Pergunte “quantas horas por dia você quer passar no seu dispositivo?” Eles costumam dizer um bom número.
  14. Saia do sistema

Depois dessas 14 dicas, duas perguntas minha:

Você tem coragem de adotar uma das sugestões acima?

O que você faz para reduzir o impacto das redes sociais na sua vida?