As “Alexas do mundo” gravam o que não deviam? A “pulseira do silêncio” pode resolver o problema

A “pulseira do silêncio” emite ultra-sons para interferir com os receptores dos telemóveis. Pedro Lopes, que co-assina o protótipo, interessa-se há muito pela forma como “os equipamentos do futuro” vão mudar o modo como “interagimos uns com os outros”.

OK, GoogleHey, SiriAlexa! Depois de qualquer um destes “gatilhos” (dependendo da marca e do modelo), o nosso telemóvel começa a fazer um registo do que lhe dizemos para conseguir falar connosco. Podemos perguntar qual é a previsão do tempo para o fim-de-semana, quão caótico está o trânsito lá fora ou como ficaram os jogos de ontem; ele vai responder. Mas e se os pequenos amiguinhos que carregamos nos bolsos gravarem mais do que desejaríamos? E se as nossas conversas privadas caíssem nas mãos (e nos ouvidos) de outras pessoas? E se soubéssemos menos sobre cibersegurança do que aquilo que julgamos? Uma equipa da Universidade de Chicago – que conta com um investigador português – concebeu uma “pulseira do silêncio” para combater estes perigos. Uma invenção especificamente desenhada para impedir os assistentes inteligentes de nos gravarem quando não queremos.

“Não é um dispositivo complicado”, explica o professor Pedro Lopes, por telefone, entre aulas e reuniões nessa instituição de ensino. Entre 12 e 24 altifalantes — os responsáveis pelo protótipo já experimentaram os dois formatos — emitem ultra-sons criados por um pequeno gerador. Um microcontrolador consegue “moldar” esta onda, cuja frequência vai dos 24.000 aos 26.000 Hertz (Hz). A cada milissegundo, há uma variação, ficando assim “muito difícil criar uma defesa” capaz de dar a volta ao aparelho. O ruído atrapalha os microfones e receptores dos telemóveis, que não são capazes de captar com clareza o som da sala ou das conversas. “É como gritar muito alto em ultra-som.”

PÚBLICO -

Foto Pedro Lopes, Huiying Li, Yuxin Chen e Shan-Yuan Teng, parte da equipa responsável pelo desenvolvimento da pulseira. PETRA FORD / NEW YORK TIMES

Esta pulseira, para a qual não existe um plano de comercialização, começou a ser pensada por Heather Zheng, professora de Ciências Computacionais na Universidade de Chicago, há cerca de um ano e meio. O marido Ben juntou-se não muito tempo depois; Pedro Lopes entrou quando o processo “deixou de ser teórico”. Um projecto de investigação que nasceu da vontade de “fazer do mundo um lugar mais seguro em termos de comunicação digital”. Ao mesmo tempo, descobríamos que, se calhar, os nossos telemóveis gravavam demasiado bem – mesmo quando (pensávamos que) não tinham permissão.

Será que a Siri nos ouve “constantemente”?

Preocupações relacionadas com o funcionamento dos assistentes inteligentes já não são novas por esta altura. Em Julho de 2019, o The Guardian noticiou que a Apple recolhia fragmentos de áudio dos utilizadores para melhorar a capacidade de a Siri “compreender o discurso humano”. A empresa norte-americana terá tido acesso a “informação médica confidencial, tráficos de droga e gravações de casais a fazer sexo”. E, em muitas ocasiões, revelou um denunciante ao jornal britânico, os smartphones gravavam mesmo sem a clássica frase para “acordar” o dispositivo.

Aqui está a grande falha (ou o “plot hole”, brinca Pedro Lopes — com os anos em Chicago, os estrangeirismos já lhe são naturais) nesta história. “Se a Siri ou a Alexa ‘acordam’ é porque têm de estar a ouvir constantemente.” Depois, há o velho problema: nós, os utilizadores comuns, nunca sabemos muito bem o que é feito à informação recolhida. Se calhar, ela é “processada dentro do dispositivo”; ou se calhar, os telemóveis “enviam tudo pela cloud para o servidor fazer o nosso reconhecimento de voz”, deixando dados a flutuar no éter digital. “As interfaces são desenvolvidas de forma não muito clara” e, naturalmente, também não ajuda o facto de “não lermos os termos e condições das coisas”.