Sciam
Clique e assine Sciam
Notícias

Será que os algoritmos de aprendizagem automática do Facebook podem prever um suicídio com precisão?

O gigante das mídias sociais pretende salvar vidas marcando e respondendo rapidamente a publicações preocupantes

Shutterstock
Quando Naika Venant se matou em janeiro, a adolescente da região de Miami transmitiu o evento por duas horas no Facebook Live, popular ferramenta de transmissão ao vivo em vídeo da rede social. Uma amiga dela viu o vídeo e avisou a polícia, mas a ajuda não chegou a tempo de salvar a menina de 14 anos. Outros jovens também postaram recentemente mensagens suicidas e plataformas de mídia social como Twitter, Tumblr e Live.me.

Num esforço para salvar vidas, o Facebook e outras grandes empresas de mídia social estão caminhando com trabalhos de prevenção ao suicídio - criando novos sistemas de alerta desenvolvidos para melhor identificar e ajudar indivíduos em risco. No dia 1º de março, o Facebook revelou um novo conjunto de ferramentas, incluindo os primeiros algoritmos de reconhecimento de padrões da empresa, para identificar usuários que possam ser suicidas ou estar em risco de auto-agressões menos danosas. A empresa diz que o novo esforço ajudará a marcar publicações preocupantes e conectar os usuários com os serviços de saúde mental. Isso também representa uma nova frente para sua aprendizagem automática.

O suicídio é, hoje, a décima principal causa de morte nos Estados Unidos e a segunda principal entre jovens; então, a mídia social poderiam ser um ponto importante de intervenção, dia o psicólogo Daniel Reidenberg, diretor executivo da Save.org, uma das organizações de saúde mental parceiras do Facebook. Atualmente, o Facebook relata ter mais de um bilhão de usuários diários ao redor do mundo. Nos EUA, 71% dos adolescentes entre 13 e 17 anos e 62% de adultos com mais de 18 anos estão presentes nesse número, de acordo com dois relatórios de 2015 do Centro de Pesquisa Pew.

Para alcançar seus usuários em risco, o Facebook diz estar expandindo seus serviços que permitem aos amigos reportarem publicações as quais contenham sinais de qualquer plano de suicídio ou automutilação, além de fornecerem um menu de opções para ambos os indivíduos e o amigos que os reportou. As escolhas incluem linhas diretas para telefonar, prazos entrar com contato com amigos e dicas sobre o que fazer em momentos de crise. Essa ferramenta também estará disponível para transmissões ao vivo no Facebook. Sistemas similares de denúncia em algumas plataformas de mídia social, incluindo Twitter, Pinterest e YouTube. Agora, o Facebook também está guiando um programa que permitirá às pessoas usarem o Messenger, aplicativo de mensagem instantânea da rede social, para se conectarem diretamente com conselheiros de organizações de apoio à crise como a Crisis Text Line e a National Suicide Prevention Lifeline (NSPL).

O Facebook planeja, ainda, usar algoritmos de reconhecimento de padrões para identificar pessoas que possam estar em risco de automutilação e fornecer a elas recursos para ajudar. A companhia diz que seu novo programa de inteligência artificial, o qual será lançado inicialmente em uma base limitada, usará aprendizagem automática para identificar postagens que sugiram pensamentos suicidas - mesmo que ninguém no Facebook já tenha informado isso.

William Nevius, porta voz do Facebook, diz que os algoritmos de aprendizagem automática vai usar dois sinais - um de palavras ou frases em publicações de usuários que se relacionem com suicídio ou automutilação e outro de comentários feitos por amigos preocupados - para determinar se alguém corre risco ou não. Se o programa de reconhecimento de padrão identifica postagens preocupantes, o botão de “denunciar publicação” mais proeminentemente para encorajar visualmente os usuários a clicarem. “A esperança é que a aprendizagem de inteligência artificial pegará múltiplos sinais de vários pontos, vai juntá-los e ativar uma resposta, tanto para a pessoa que talvez esteja em risco quanto para aqueles que possam ajudar”, escreveu Reidenberg em um e-mail.

Se essas pistas sinalizarem para um nível maior de urgência, o sistema alertará automaticamente a equipe de Operações Comunitárias do Facebook - um grupo de funcionários que fornecem suporte técnico e monitoram o site para questões como bullying e contas hackeadas. A equipe rapidamente revisará a postagem e vai determinar se a pessoa precisa de suporte adicional ou não. Caso precise, o usuário verá uma página de recursos aparecer em seu feed de notícias. (Essa página normalmente só apareceria se a postagem fosse denunciada por amigos preocupados.)

Para ajudar sua inteligência artificial a sinalizar publicações preocupante, o Facebook minou “dezenas de milhares de postagens que foram denunciadas por pessoas que estão preocupadas com algum amigo”, explica John Draper, diretor de projeto do NSPL, também uma organização parceira do Facebook.

Embora os atuais algoritmos tenham limitações para digitar, o Facebook pode eventualmente usar IA para identificar fotos e vídeos preocupantes também. O CEO Mark Zuckerberg anunciou no mês passado que a companhia está “pesquisando sistemas que possam olhar fotos e vídeos para marcar conteúdos que nossa equipe deveria revisar” como uma parte de esforços para avaliar conteúdos denunciados, incluindo suicídio, bullying e assédio. “Isso começou a ser desenvolvido a pouco, mas fizemos com que olhassem para alguns conteúdos e já geraram cerca de ⅓ de todas as denúncias para a equipe que revisa conteúdo para nossa comunidade”, escreveu Zuckerberg. Nevius não forneceu informações sobre quando essas ferramentas adicionais podem ser aplicadas.

Alguns especialistas em saúde mental dizem que a IA ainda é limitada para identificar sozinha riscos de suicídio através da linguagem. “Acredito que [a aprendizagem automática] é um passo na direção certa”, diz Joseph Franklin, psicólogo na Universidade Estadual da Flórida que estuda o risco de suicídio. Franklin e seus colegas conduziram recentemente uma meta-análise de 365 estudos de 1965 a 2014. Eles descobriram que, apesar de décadas de pesquisa, a habilidade de especialistas em detectar futuras tentativas de suicídio continuou sendo não mais do que acaso. “Existe apenas um pequeno sinal de previsão”, diz Franklin. Essas limitações estimularam ele e outras pessoas a trabalhar desenvolvendo algoritmos de aprendizagem automática que ajudem a avaliar o risco analisando dado de registros de saúde eletrônicos. “A limitação de registros de saúde é que… podemos prever com precisão [o risco] com o passar do tempo, mas não sabemos em qual dia farão tentativas de suicídio”, explica Franklin. As mídias sociais podem ajudar bastante para fornecer um timing mais claro, ele acrescenta. Contudo, isso também teria limitações: “Não há muito que você possa dizer de um texto, mesmo usando um processamento de linguagem natural mais complicado, porque as pessoas podem utilizar as expressões “suicídio” e “me matar” por diferentes razões - e você não sabe se alguém está as utilizando de uma forma particular”.

Alguns pesquisadores, como Glen Coppersmith, fundador e CEO da companhia de análise de saúde mental Qntfy, descobriram sinais estratégicos na própria linguagem. Em um exame recente dos dados do Twitter disponíveis publicamente, Coppersmith e seus colegas descobriram que conteúdos emocionais de publicações - como texto e emojis - poderiam ser indicativos de risco. Ele observa, entretanto, que esses ainda são “pequenos pedaços do quebra-cabeças”, acrescentando que “o outro lado disso, uma espécie de sinal sem linguagem, é o horário”. “O Facebook tem informações sobre quando você está logado, quando está conversando no chat… e em que horários você está online, [que são] sinais bem interessantes os quais podem ser relevantes para dizer se você está em risco próximo de um suicídio”.

Craig Bryan, pesquisador na Universidade de Utah que investiga o risco de suicídio na população veterana, começou a examinar a importância do tempo no caminho para o suicídio. “Em nossa mais recente pesquisa, estão observando padrões temporais de sequências à medida que surgem - onde [descobrimos que] não é apenas ter várias publicações sobre depressão ou uso de álcool, por exemplo, [mas sim] é a ordem na qual você os escreve”, ele diz.

Outro fator importante para se considerar, especialmente com adolescentes, é o quão frequentemente sua linguagem muda, diz Megan Moreno, pediatra se especializando em medicina adolescente no Hospital Infantil de Seattle. Em um estudo de 2016, Moreno e alguns colegas descobriram que, assim que uma hashtag sobre auto-mutilação é banida ou marcadas como perigosa no Instagram (uma rede social para compartilhar fotos e vídeos), diversas novas versões surgem. Por exemplo: quando o Instagram bloqueou #automutilacao, substitutos com ortografia alternativa (#automutilacaooo e #autoferimentoo) ou gírias ( #lâminas) surgiram. “Eu continuo a pensar que a aprendizagem automáticas sempre estará alguns passos atrás da forma como os adolescentes se comunicam”, diz Moreno. “Por mais que eu admire esses esforços, acredito que não podemos confiar nisso como a única maneira de sabermos se uma criança está tendo problemas”.

“O ponto de partida é que este definitivamente é um esforço que faz muito sentido, dado o fato de muitas pessoas se conectarem com mídias sociais”, diz Jessica Ribeiro, psicóloga que está aplicando aprendizagem automática à pesquisa de prevenção ao suicídio na Universidade Estadual da Flórida. “Ao mesmo tempo, estão limitados pelo que a ciência dessa área não sabe - e, infelizmente, não sabemos muita coisa, apesar de décadas de estudo”.

 

Diana Kwon
Para assinar a revista Scientific American Brasil e ter acesso a mais conteúdo, visite: http://bit.ly/1N7apWq