segunda-feira, 30 de janeiro de 2017
UFG desenvolve aplicativo de olho eletrônico para pessoas cegas.
O objetivo é descrever situações em tempo real para que deficientes visuais possam se localizar com facilidade
27/01/2017 11:32
Com a finalidade de facilitar o cotidiano e gerar autonomia de locomoção e localização para deficientes visuais, a Universidade Federal de Goiás (UFG)
desenvolveu
o Deep Vison – Olho Eletrônico que descreve ambientes para pessoas cegas. O aplicativo funciona a partir dos comandos de voz â€Sveja†ou â€So
que tem
aqui?†,
que acionam
a câmera do dispositivo, fotografando uma situação e, em seguida, detalha especificadamente por meio de um áudio o ambiente em que o usuário se encontra.
Segundo o pesquisador, Anderson Soares, o aplicativo terá duas funcionalidades específicas, sendo a primeira a descrição de ambientes e a segunda um direcionamento
sensorial de trânsito, no qual a câmera captará objetos em movimento e obstáculos, o que gera um efeito sonoro no fone de ouvido. â€SA ideia é que o
app colabore
com os mecanismos de acessibilidade já existentes, permitindo que o usuário se localize com total autonomia, sem precisar de outro individuo†, afirma.
O aplicativo estará disponível para download até o final deste ano e o seu funcionamento dependerá de conexão com a internet. Já para 2019, pensando na
realidade
brasileira, o objetivo é a criação de um óculos eletrônico com as mesmas funcionalidades, mas que não faça uso de banda larga. O projeto conta com um site
para
que qualquer pessoa possa realizar um teste e entender como o software funciona.
Redes Neurais
A aprendizagem profunda, conhecida como Deep Learning, é uma das vertentes mais prevalentes do mundo computacional, pois promove o entendimento de imagens
explica
o pesquisador, Otávio Calaça. Segundo ele, a partir dessa funcionalidade, o aplicativo utiliza quatro redes neurais com aproximadamente 400 milhões de
parâmetros
que fazem o reconhecimento das imagens. A primeira rede é responsà¡vel por fazer o reconhecimento da voz do usuário, acionando a cà¢mera para a captura
da foto eletrônica.
â€SEm seguida, a segunda rede capturará os detalhes da imagem que foi tirada pela câmera, acionando a terceira rede que irá vincular os detalhes capturados
em
uma
espécie de texto†, afirma. O pesquisador aponta que, por fim, a última rede neural será acionada para um processamento de voz, gerando um áudio tanto
em inglês
quanto em português, para descrever a situação em que o usuário se encontra.
fonte:
http://www.opopular.com.br/editorias/cidade/ufg-desenvolve-aplicativo-de-olho-eletr%C3%B4nico-para-pessoas-cegas-1.1216331--
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário