Giro

Facebook faz melhorias para ajudar usuários com deficiência visual

Crédito: Reprodução/Divulgação

Antes, esses usuários ouviam apenas a palavra "foto" e o nome da pessoa que a compartilhou. Agora podem ouvir "três pessoas, sorrindo, ao ar livre". (Crédito: Reprodução/Divulgação)

O Facebook anunciou novas melhorias em sua tecnologia de inteligência artificial (IA), que é usada para gerar descrições de fotos publicadas na rede social para usuários com deficiência visual.

A tecnologia, chamada de texto alternativo automático (AAT), foi introduzida pela primeira vez pelo Facebook em 2016 para melhorar a experiência de usuários com deficiência visual. Até então, os usuários com deficiência visual que checavam seu feed de notícias do Facebook e encontravam uma imagem ouviam apenas a palavra “foto” e o nome da pessoa que a compartilhou. Com o AAT, os usuários com deficiência visual podem ouvir coisas como “a imagem pode conter: três pessoas, sorrindo, ao ar livre”.

+ EUA pede que Austrália desista de cobrar que Facebook e Google paguem imprensa
+ Twitter e Facebook administraram ‘mal’ desinformação com Trump, diz fundador da Wikipedia

O Facebook disse que, com a última iteração do AAT, a empresa foi capaz de expandir o número de conceitos que a tecnologia de IA pode detectar e identificar em uma foto, bem como fornecer descrições mais detalhadas para incluir atividades, pontos de referência, tipos de alimentos e tipos de animais, como “uma selfie de duas pessoas, ao ar livre, a Torre Inclinada de Pisa” em vez de “uma imagem de duas pessoas”.



A empresa explicou que o aumento do número de conceitos que a tecnologia pode reconhecer de 100 para mais de 1.200 foi possível através do treinamento do modelo semanalmente com amostras que afirma ser “mais precisas e cultural e demograficamente inclusivas”.

O Facebook acrescentou que, para fornecer mais informações sobre posição e contagem, a empresa treinou seu detector de objetos de dois estágios usando uma plataforma de código aberto desenvolvida pela Facebook AI Research.

“Treinamos os modelos para prever localizações e rótulos semânticos dos objetos em uma imagem. Técnicas de treinamento de conjuntos de multilabel / multi-dados ajudaram a tornar nosso modelo mais confiável com o espaço de rótulo maior”, disse a empresa.

Esforços semelhantes foram feitos no passado por outras empresas de tecnologia para melhorar a experiência do usuário para usuários com deficiência visual.

No ano passado, o Google lançou seu teclado braille TalkBack para ajudar os usuários a digitar diretamente em seus dispositivos Android, sem a necessidade de conectar um teclado braille físico. Isso aconteceu depois que o gigante dos motores de busca lançou seu aplicativo Lookout , que usa IA para ajudar os usuários a ver, apontando seus telefones para objetos para receber feedback verbal.

Antes disso, a Amazon introduziu um recurso Mostrar e dizer ao Echo Show para que ele pudesse reconhecer itens domésticos de despensa. Os usuários simplesmente seguram o item na tela e perguntam: “Alexa, o que estou segurando?””Treinamos os modelos para prever localizações e rótulos semânticos dos objetos em uma imagem. Técnicas de treinamento de conjuntos de multilabel / multi-dados ajudaram a tornar nosso modelo mais confiável com o espaço de rótulo maior”, disse a empresa.

Veja também

+ 5 benefícios do jejum intermitente além de emagrecer
+ Jovem morre após queda de 50 metros durante prática de Slackline Highline
+ Conheça o phloeodes diabolicus "o besouro indestrutível"
+ Truque para espremer limões vira mania nas redes sociais
+ Mulher finge ser agente do FBI para conseguir comida grátis e vai presa
+ Zona Azul digital em SP muda dia 16; veja como fica
+ Estudo revela o método mais saudável para cozinhar arroz
+ Arrotar muito pode ser algum problema de saúde?
+ Tubarão é capturado no MA com restos de jovens desaparecidos no estômago
+ Cinema, sexo e a cidade
+ Descoberta oficina de cobre de 6.500 anos no deserto em Israel