Um evento que ocorreu recentemente com Eric Meyer, palestrante e autor de livros que advoca por padrões web, tomou notoriedade pelo possível impacto negativo na vida das pessoas sobre decisões de como apresentar uma funcionalidade automática baseada em dados que o próprio usuário fornece para outros fins. Sendo mais específico, pense apenas que Eric entrou no Facebook, viu uma frase "Eric, olha como seu ano se pareceu!" e então vê em destaque a foto da filha que morreu de câncer. Ele critica isso em seu texto algorítimo cruel realizado sem cautela.

Aqui neste artigo, além de concordar com Eric sobre a interface que poderia ter sido melhor, explico outras soluções para minimizar esse tipo situação infeliz através de uso de inteligência artificial para analise de sentimentos com tecnologia disponível hoje.

O que é Facebook o "year in review"

Para quem não sabe o Facebook "year in review" é uma sugestão pré-selecionada de fatos que o próprio usuário do Facebook postou durante o ano e que aparece em sua linha do tempo —pense "página inicial do site" —, na qual o usuário pode rever os dados, ou publicar como aparece. Ele não exibe ao público até que a pessoa decida publicar. No caso do Eric a primeira foto que apareceu era de algo que teve um impacto negativo muito forte.

User experience design e o "year in review"

Do ponto de vista de experiência do usuário, nas palavras do próprio Meyer, ele reclama que a interface foi planejada pensando o usuário ideal, feliz, de vida boa, sem levar em consideração demais casos. E no mundo real, pessoas passam por problemas e os compartilham, e justamente tragédias podem ter mais comentários e likes do que compartilhamentos positivos.

A interface planejada foi razoável se pensar os desafios típicos do profissional de UX de simplificar etapas. Há inúmeros casos, talvez a maior parte deles, aonde o profissional está mais preocupado em potencializar uma meta e se preocupar com todas as exceções via adição de mais complexidade só pioraria a efetividade de fazer algo mais universal, a exemplo de formulários que pedem dados demais de um usuário e o afastam de um cadastro em um site. E, por esse ponto de vista, é sim razoável que se protegesse demais os usuários ao não preencher com alguns conteúdos que ele produziu por padrões poderia haver um impacto negativo no uso da ferramenta: forçar todos os usuário a escolher o que divulgaria em vez de permitir que apenas clique em um botão com opções pré-selecionadas poderia fazer boa parte deles desistir.

O ponto pertinente é manipulação de dados privados para vender um produto é um nicho muito sensível e com desafios adicionais. Não é a mesma coisa que simplificação de etapas sem risco de causar constrangimento ao usuário. Um exemplo real mais próximo da necessidade da necessidade dessa cautela são as restrições aplicáveis às categorias sensíveis na publicidade baseada em interesses do Google, explicitamente, não permitem que anunciantes de propagandas se beneficiem de dados coletados de forma não anônima do Google para exibir certos tipos de propaganda. Imaginem o quão constrangido você ficaria se com base no que escreve ou pesquisa aparecesse propagandas não sobre produtos aleatórios de eletrônicos ou viagens, mas coisas tensas como que pressupõe sua orientação sexual, se você é um devedor, ou mesmo querendo te convencer a mudar para uma religião diferente da sua.

O algorítimo da escolha das informações pré-selecionadas

Eu não trabalho no Facebook, porém algumas coisas são razoáveis de se pensar sobre a implementação do algorítimo:

  1. A primeira foto que aparece por padrão pode não ser uma da própria pessoa, e tende a ser uma com mais opções curtidas dentre as de seu álbum particular, marcada como de acesso público
  2. As informações que aparecem no corpo do "year in review" são postagens feitas durante o ano, não necessariamente com mais curtidas, porém tende a ser uma postagem que foi enviada com uma foto pelo usuário
  3. É possível, com certa margem de certeza, detectar automaticamente se um texto tem um sentimento ruim ou bom, porém ao menos para textos em português não houve cuidados básicos quanto a se são positivos
  4. Opções "curtir" são indicativo conteúdo que causa impacto nos leitores, e não necessariamente significa algo positivo na vida de quem postou. Na falta de opção "não curti", pessoas podem compartilhar ou curtir algo que passa um sentimento ruim.
  5. Existe a possibilidade de, explicitamente, deixarem o algorítimo aleatório propositalmente, depois da polêmica sobre terem manipulado intencionalmente com notícias negativas a linha de tempo de parte de seus usuários

Como uma prova de que não houve checagem nem mesmo básica sobre analise de sentimentos em textos sugeridos, pelo mesmo para o idioma português, posso citar uma postagem que o Facebook me sugeriu sobre o suicídio de Robin Williams. Se você, humano, a ler, provavelmente não a sugeriria de volta ao final do ano uma tragédia como essa.

8 de novembro: Robin Williams, 63 anos, 3 meses depois de ter sido encontrado com cortes no pulso esquerdo e um cinto no pescoço, foi considerado oficialmente como morte por...
Facebook sugere uma postagem negativa sobre depressão e suicídio

Soluções práticas que fariam o funcionalidades como "year in review" terem menor chance de frustrar fortemente o usuário

1. Lista negra de palavras: muito simples de implementar

Lista negra de palavras é uma das técnicas mais antigas para filtrar conteúdo de forma automática baseado em um dicionário. É comum em locais que aceitam comentários de visitantes ter esse filtro para ignorar completamente termos usados por Spammers (como viagra, cialis, etc) e, e ao menos alertar que quem insere a informação que ela contém algum texto que não é aceito e por isso nem será salva até que o edite. Lista negra de palavras, mesmo que simples, já evitou muita intervensão humana em casos obviamente problemáticos.

Lista negra também uma das mais simples de implementar, não só do ponto de vista de decidir os termos, como também do ponto de vista de implementação por programadores. Se a equipe do Faceook traduziu para português frases usadas para falar do "year in review", poderiam também fazer isso com com lista de palavras arriscadas e considerá-las ao escolher o material.

Algumas pessoas poderiam argumentar: mas isso é passível de falha. Sim, é, porém é melhor que nada. Se excluir completamente os que são detectados, pelo menos deixá-los com menor prioridade na escolha do material por conterem termos potencialmente muito negativos já faria uma grande diferença. Na postagem que citei sobre o suicídio de Robin Williams, fica claro que não houve nem filtragem básica, e é possível ver termos em português pesados "morte/morrer" X3, "depressão" X2, "cortes no pulso", "suicídio", "tristeza" e "merda".

2. Analise de sentimentos de textos por software de Processamento de linguagem natural (NPL): razoável de implementar

Processamento de linguagem natural, do inglês Natural language processing (NLP) é uma subárea de inteligência artificial e linguística envole compreensão por máquinas de linguagem natural. Uma aplicação simples disso é analizar um texto e ao final, dizer se o sentimento que ele passa parece ser positivo ou negativo. Sem entrar em muitos detalhes, existem softwares com diferentes complexidades que atingem um nível aceitável de acerto . Notavelmente a maior dificuldade é compreender ironia, mas isso até humanos tem problemas.

Softwares podem envolver apenas um algorítimo simples, com algumas palavras chaves, a até mesmo coleta de quantidades massivas frases e parágrafos e que, de forma direta ou indireta, um humano avalia se é positivo ou negativo e o software aprende e repete o padrão. Os mais simples e triviais de implementar, e usam algorítimos baseados em listas de palavras como a AFINN, que tem palavras em inglês e um valor inteiro que classifica elas elas entre -5 a +5 conforme a negatividade/positividade da palavra; o resultado do sentimento é medido com somatório dos pesos de cada termo usado que é encontrado na lista de palavras, e a margem de acerto de 60~80% até mesmo para frases pequenas como 140 caracteres de um tweet. Veja aqui alguns programas prontos para uso de analise de sentimentos no Github baseados no AFINN.

Também pode ser argumentado: mas isso é passível de falhas. Sim, é. Mas é uma tecnologia que pode ser usada e é de implementabilidade razoável, em especial os algorítimos mais simples. O frustrante é pensar que o Facebook, que contrata alguns dos melhores cientistas de dados do mundo, provavelmente já tem ferramentas bem mais sofisticadas para analise de sentimentos, e seria só uma questão de usá-las também na seleção de conteúdo para essa funcionalidade. Talvez até tenham usado, mas definitivamente não fizeram nem mesmo uma lista negra para o idioma português.

3. Analise de sentimentos de imagens por software: implementabilidade complexa

Uma outra opção, certamente complexa mas ainda assim uma opção, é analise das imagens escolhidas. Empresas grandes, como Facebook e o Google, tem softwares que identificam faces humanas e até objetos com relativa precisão. Até mesmo o uso delas de forma mais primitiva poderia ser relativamente eficiente ao apenas bloquear imagens que identifiquem coisas provavelmente muito ruins. No caso de rostos humanos, talvez apenas detectar lágrimas ou uma face triste. No caso de objetos, provavelmente evitar coisas que lembrem violência, como armas brancas, armas de fogo ou tanques de guerra. Esse artigo em inglês fala sobre analise e previsão de sentimentos em imagens compartilhadas em redes sociais.

4. Ser gentil ao apresentar um dado não confiável com possível forte impacto emocional (UX): implementabilidade variável

Eu mesmo não sendo especialista em UX considero plausível o que Eric Meyer disse: Se não tem como ter segurança técnica para pré-selecionar o que deveria aparecer, que ao menos os textos fossem mais empáticos ou simplesmente não usar dados não confiávéis. Isto é, seria como perguntar educadamente se esse é mesmo o ano que a pessoa teve, em vez de afirmar "olhe como foi seu ano!". Outro ponto extremamente contrangedor no aplicativo é ele, para quem não o compartilhou, aparece aleatóriamente pedindo para ser compartilhado, e sem chance de optar por parar de ser exibido a foto da filha morta.

Considerações finais

Se você faz parte de uma equipe e há pressão para ter resultado e simplificar os passos, e mesmo que faça testes A/B, a tela mais empática tenha resultado global pior, o apelo que eu faria para profissionais que fazem escolhas estratégicas de interface é use inteligência artificial de forma coerente como uma das variáveis por trás da experiência do usuário. Tire uma lição positiva desse incidente com Facebook, e reflita porque Google não permite propagandas com temas sensíveis direcionadas aos seus usuários.

Análise de sentimentos, ou o próprio business intelligence/analytics, tem uma série de implicações éticas, o que pode causar repulsa por algumas pessoas e medo de usar errado. O alerta que faço é que a omissão completa do uso desse tipo de tecnologia também pode ser tão ou mais cruel quando você já está usando informações privadas de uma pessoa para tentar deixá-la mais feliz ou comprar um produto ou serviço.

comments powered by Disqus