O assédio é um problema na Realidade Virtual, e é provável que piore

Se acreditarmos nas palavras de Mark Zuckerberg, o futuro é virtual.

No ano passado, a Meta investiu 10 mil milhões de dólares (cerca de 9,5 mil milhões de euros) no Facebook Reality Labs, a parte da empresa que desenvolve gadgets e software de realidade virtual e realidade aumentada. O departamento é responsável por dar vida à visão do fundador do Facebook de um mundo onde a realidade virtual e a realidade aumentada mudam tudo, desde fazer compras até sair com os amigos.

Zuckerberg chegou ao ponto de mudar o nome oficial da empresa de Facebook para Meta, no ano passado – uma medida que reflete a sua dedicação à criação do chamado metaverso, um conceito de ficção científica que prevê, essencialmente, uma versão imersiva da internet. E a Meta disse que pretende investir acima dos 10 mil milhões de dólares nos próximos anos.

Como um dos grandes vencedores da Web 2.0 – com despojos que incluem recursos gigantescos e milhares de milhões de utilizadores – a Meta está numa posição única para moldar o que se segue na internet. E está a esforçar-se para manter a sua visão do metaverso na linha da frente: Zuckerberg disse na semana passada que a empresa lançará uma versão para desktop da sua principal aplicação social de realidade virtual (RV), a Horizon Worlds, mais para o final deste ano, para que as pessoas possam experimentá-la sem o dispositivo na cabeça (a empresa também falou sobre uma versão móvel da aplicação). Ele acrescentou que, no futuro, seremos incorporados pelo nosso avatar Meta – a versão animada e personalizável de nós mesmos, usada para navegar na aplicação – assim que colocarmos o dispositivo na cabeça, “prontos para interagirmos no Horizon com os nossos amigos”.

Com esta mudança para o metaverso, a empresa deve conseguir virar uma nova página, após os erros do passado, como o escândalo da Cambridge Analytica e a desinformação desenfreada que assola o Facebook. Mas já existe um problema que alguns utilizadores relataram estar a surgir neste espaço: o assédio e outros comportamentos indesejados, principalmente em aplicações e jogos sociais de RV, inclusive a Horizon Worlds. Os incidentes relatados recentemente incluem comentários ofensivos e racistas ditos por avatares de outras pessoas, bem como apalpões e beijos indesejados.

Uma representação das bolhas de segurança recentemente lançadas para a Horizon Worlds, que os utilizadores podem personalizar ou remover. As bolhas de Limite Pessoal são invisíveis, na verdade; esta representação da Meta apenas ilustra o conceito de Limite Pessoal

O assédio tem uma longa história no espaço digital, mas a RV é um meio direto que pode fazer com que pareça muito mais real do que numa tela plana. E as empresas por trás de várias das aplicações sociais de RV mais populares não querem falar sobre isso. A Meta, juntamente com as populares aplicações sociais de realidade virtual VRChat e Rec Room, recusaram os pedidos de entrevistas da CNN Business sobre como estão a combater o assédio na RV.

Mas o problema deverá tornar-se mais comum à medida que os dispositivos de RV mais baratos e mais potentes estimulam um número crescente de pessoas a desembolsar para adquirir a tecnologia. Atualmente, podemos comprar o Quest 2 por 299 dólares, tornando-o mais barato (e mais fácil de encontrar) do que a PlayStation 5 da Sony.

“Acho que [o assédio] é uma questão que devemos encarar muito a sério na RV, especialmente se queremos que seja um espaço online acolhedor, um espaço online diversificado”, disse Daniel Castro, vice-presidente da Information Technology & Innovation Foundation. “Apesar de vermos comportamentos muito mais a acontecer no mundo real, acho que podem ser ainda piores, online.”

Bolhas, bloqueios e silenciadores

A realidade virtual não se tornou acessível às massas da noite para o dia. Para a Meta, começou quando a empresa comprou a Oculus VR em 2014 e, nos anos seguintes, lançou uma série de dispositivos de RV cada vez mais capazes, acessíveis e portáteis. Esse trabalho está a valer a pena, já que os dispositivos Quest da Meta representaram cerca de 80% dos dispositivos de RV comercializados no ano passado, segundo Jitesh Ubrani, gerente de pesquisa da IDC, uma empresa de sondagens do mercado de tecnologia.

E à medida que mais pessoas passam tempo na realidade virtual, mais notório se torna o mau comportamento que pode acontecer. É difícil dizer quão difundido está o assédio na realidade virtual, mas um relatório de dezembro do Centro de Combate ao Ódio Digital dá uma ideia da sua prevalência no VRChat. Lá, os investigadores identificaram 100 possíveis violações das políticas de RV da Meta, incluindo assédio e abuso sexual, durante as 11 horas e 30 minutos gastos a gravar a atividade de utilizador. (Embora o VRChat tenha recusado dar uma entrevista, Charles Tupper, chefe de comunidade do VRChat, deu-nos pormenores por e-mail sobre as ferramentas de segurança e disse que a empresa tem regularmente mais de 80.000 pessoas a usar o VRChat – a maioria delas com dispositivos RV – durante os horários de pico aos fins de semana).

Na esperança de parar e prevenir o mau comportamento, as aplicações sociais de RV tendem a oferecer uma série de ferramentas comuns que as pessoas podem usar. Essas ferramentas vão desde a capacidade de configurar uma bolha invisível de espaço pessoal ao seu redor para evitar que outros avatares se aproximem demasiado, silenciar as pessoas que não quer ouvir, e bloqueá-las completamente para que não o possam ver nem ouvir e vice-versa.

A denúncia de mau comportamento e as práticas de moderação em RV podem ser semelhantes às dos jogos online. Às vezes, os utilizadores podem votar para expulsar alguém de um espaço de RV – experimentei isto em primeira mão, recentemente, quando me pediram para votar a expulsão de uma pessoa da praça da Horizon Worlds da Meta, depois de essa pessoa se ter aproximado repetidamente de mim e de outros utilizadores, dizendo: “Já agora, sou solteiro.” (Esse utilizador foi expulso). Os moderadores humanos também são usados para responder a queixas de mau comportamento, e as aplicações podem suspender ou banir utilizadores se o comportamento deles for suficientemente grave.

A Horizon Worlds, o VRChat e o Rec Room oferecem esse tipo de recursos de segurança. A Horizon Worlds adicionou uma zona padrão de proteção, de 1,50 metros, à volta dos avatares dos utilizadores em fevereiro, cerca de três meses após o lançamento da aplicação. O VRChat e o Rec Room, que existem há anos, também oferecem aos utilizadores uma zona padrão de proteção.

“Esses passos são a direção certa”, disse Castro, embora reconheça que diferentes aplicações e plataformas – bem como espaços públicos de RV onde qualquer pessoa pode entrar, em comparação com espaços privados onde os convites são limitados – trarão diferentes desafios no que toca à moderação de conteúdo.

Essas ferramentas também irão, certamente, evoluir com o tempo, à medida que mais pessoas usarem a realidade virtual. Em comunicado, Bill Stillwell, gerente de produto para a integridade de RV da Meta, disse: “Continuaremos a fazer melhorias à medida que formos aprendendo mais sobre a forma como as pessoas interagem nestes espaços.”

Um fardo para as vítimas

Embora algumas das ferramentas atuais possam ser usadas de forma proativa, muitas só são úteis depois que alguém já ter sido assediado, frisou Guo Freeman, professora assistente de computação centrada no ser humano da Universidade de Clemson, que estuda os jogos e a RV social. Por causa disso, ela sente que o fardo é colocado nas vítimas.

Um esforço para tornar mais fácil identificar e denunciar o assédio vem de uma empresa chamada Modulate. O software da empresa, conhecido como ToxMod, usa a inteligência artificial para monitorar e analisar o que os utilizadores estão a dizer e, de seguida, prevê quando alguém está a usar linguagem ofensiva ou racista, por exemplo, e não apenas a usar provocações. O ToxMod pode alertar um moderador humano ou, em alguns casos, ser configurado para silenciar automaticamente os utilizadores que estão a cometer uma infração. O Rec Room está a testar o software em alguns dos espaços públicos da aplicação de RV.

Faz sentido que os criadores das aplicações enfrentem os desafios de moderação que acompanham esta expansão e estejam a considerar se novos tipos de automação podem ajudar. O mercado de RV ainda é pequeno, comparado ao dos videojogos das consolas, mas está a crescer rapidamente. A IDC estima que quase 11 milhões de dispositivos de RV tenham sido enviados em 2021, o que representa um salto de 96% em relação aos 5,6 milhões enviados um ano antes, disse Ubrani. Nos dois anos, os dispositivos Quest da Meta representaram a maioria dessas remessas.

De certa forma, o ToxMod é semelhante à forma como as empresas de redes sociais já moderam as suas plataformas, com uma combinação de humanos e IA. Mas a sensação de presença que os utilizadores tendem a experimentar na RV – e o facto de depender tanto da comunicação falada, em vez da escrita – pode fazer com que algumas pessoas sintam que as estão a espiar. (A Modulate disse que os utilizadores são notificados quando entram num espaço virtual onde o ToxMod pode estar em uso, e quando uma nova aplicação ou jogo começa a usar o ToxMod, o gerente da comunidade do Modulate falará com os utilizadores online – tal como através do canal Discord num jogo – para responder a qualquer dúvida sobre como funciona).

“Isso é, sem dúvida, algo em que investimos muito tempo”, disse o CEO da Modulate, Mike Pappas.

Não há normas estabelecidas

Um desafio abrangente ao lidar com o assédio na RV é a falta de acordo sobre o que conta como assédio num espaço virtual em oposição a um espaço físico. Em parte, isso acontece porque, embora a RV em si não seja uma novidade – existe em diferentes encarnações há décadas – é recente como um meio de massas e está a mudar a toda a hora, em resultado disso.

Esse fator de novidade significa que não há normas estabelecidas, o que pode tornar difícil que qualquer pessoa com um dispositivo saiba o que está certo ou não ao interagir com outras pessoas na realidade virtual. Um número crescente de crianças também está a entrar nos espaços virtuais e, como Freeman apontou, o que uma criança pode ver como brincadeira (como correr e agir descontroladamente) um adulto pode ver como assédio.

“Muitas vezes, na nossa pesquisa, os participantes sentem-se muito confusos sobre se foi ou não um comportamento brincalhão ou assédio”, disse Freeman.

O assédio na RV também pode assumir novas formas que as pessoas podem não ter offline. Kelly Guillory, ilustradora de BD e editora de uma revista online sobre RV, teve essa experiência no ano passado, depois de bloquear um antigo amigo no VRChat que começou a agir de forma controladora e a ter explosões emocionais.

Depois de ela o bloquear, deixou de conseguir vê-lo ou ouvi-lo no VRChat. Mas, de forma assustadora, Guillory ainda conseguia sentir a presença próxima dele. Em várias ocasiões, enquanto se relacionava com amigos na aplicação, o avatar do assediador aproximava-se do grupo. Ela acha que ele desconfiava que o avatar dela estava lá, já que os amigos costumavam dizer o nome dela em voz alta. Ele juntava-se à conversa, falando com outras pessoas com quem ela estava a interagir. Mas como Guillory não podia ver nem ouvir o avatar dele, parecia que os amigos dela estavam a falar para o vazio. Para Guillory, era como se o assediador estivesse a tentar contornar o bloqueio e a impor a sua presença virtual.

“As primeiras vezes que aconteceu foi irritante”, disse ela. “Mas depois continuou a acontecer.”

Pode parecer real

Estas experiências na RV podem parecer extremamente reais. Freeman disse que, na sua pesquisa, as pessoas relataram que quando o seu avatar era agarrado pelo avatar de outra pessoa, parecia muito realista, especialmente se estivessem a usar o rastreamento de corpo inteiro para reproduzir os movimentos dos membros. Uma mulher relatou que outro utilizador de RV se aproximava do rosto dela, como se a estivesse a beijar – uma ação que a fez sentir-se assustada, disse ela a Freeman, pois parecia semelhante a alguém a fazer a mesma coisa offline.

“Por ser imersivo, o recurso incorporado da RV social, esses comportamentos parecem realistas, o que significa que a ameaça pode parecer prejudicial porque parece física”, disse Freeman.

Foi esse o caso de Guillory. Ficou com ansiedade e perdeu a confiança nas pessoas online, disse ela. Por fim, falou no Twitter sobre o assédio, o que ajudou.

“Ainda adoro a RV, mas quero que as pessoas tenham melhores comportamentos”, disse ela.

FONTE: https://cnnportugal.iol.pt/rv/realidade-virtual/o-assedio-e-um-problema-na-realidade-virtual-e-e-provavel-que-piore/20220508/627535d70cf2f9a86ea27186