myEyes - Triggers de voz para pessoas com problemas de visão
As tecnologias nesta última década denotam um desenvolvimento exponencial em todas as suas frentes. Este crescimento será multiplicado nos anos vindouros, fruto da introdução da inteligência artificial em todo o ecossistema tecnológico. É por esta razão que começam a surgir carros que se deslocam praticamente sem intervenção humana, só para dar um exemplo1.
Juntou-se a tecnologia com a aprendizagem. Mas acima de tudo com a capacidade que os actuais sistemas têm de aprender sozinhos, ou melhor em contexto criado; aleatoriamente ou supervisionado.
Os dispositivos móveis, também têm crescido a um ritmo exponencial, quer os vejamos sob o ponto de vista de capacidades instaladas e de processamento, quer pela a forma como estão a chegar a todas as pessoas.
O facto dos dispositivos móveis estarem a invadir o mundo e a chegar a todos os estratos sociais apresenta-se como uma forte oportunidade para usar os mesmos em prol das pessoas com incapacidade, neste caso visual mas seguramente surgirão, nos próximos anos, a outro tipo de incapacidade.
O problema na utilização tecnológica, reside a meu ver não na capacidade informática, mas no formato desta capacidade. É importante mais do que desenvolver dispositivos tecnológicos, desenvolver dispositivos que saibam quem é a pessoa e lhe apresentem a informação que eles não têm acesso por via visual, e assim a façam chegar por outras vias.
Neste caso apostamos na voz. Penso que este é o caminho mais imediato e certeiro para “apresentar o mundo” às pessoas que não o conseguem ver, mas falta fazer aqui um estudo mais sistematizado sobre a forma como o mundo se torna inteligível para uma pessoa cega. Não basta dar umas simples notas auditivas como “siga em frente”, “tem aí um obstáculo”, “pare”, é necessário criar um discurso próprio muito alicerçado no desempenho cognitivo da pessoa em concreto que vai utilizar o apoio móvel e construído a partir da linguística.
O número de pessoas com incapacidade visual ou completamente cegas no mundo tem vindo a aumentar. Esta situação pode ser congénita ou adquirida e também pode ser parcial ou total. O aparecimento durante a vida está fortemente correlacionada com o aumento da longevidade, observando-se uma grande expressão a partir dos 75 anos, em percentagem populacional.
Pese embora o enorme esforço e atenção que as ciências médicas têm dado a esta condição, e às patologias que a provocam, poucos resultados têm sido obtidos.
A razão para tal deve-se à grande complexidade que envolve o sistema visual, onde entram três componentes principais que resumo grosseiramente da seguinte forma; córnea e cristalino, retina e o nervo óptico que liga ao cérebro. Enquanto a primeira componente está desde há muito tempo mitigada nas suas diversas patologias as outras duas encontram-se ainda muito atrasadas, existem poucos tratamentos para doenças da retina e praticamente desconhece-se como ultrapassar as lesões ou disfunções sinápticas que são encontradas ao nível do córtex visual.
Penso que a solução para o desafio a que nos propusemos, no momento actual, passará por usar a narrativa produzida artificialmente, enquanto se tentam outras abordagens baseadas em tecnologia de células estaminais ou de engenharia genética. Para Edward Bloch, Yvonne Luo, Lyndon da Cruz (2019), estas tecnologias poderão vir a ser promissoras no futuro, mas estão em fase muito embrionária, na capacidade de oferecer soluções reais para estas patologias. Existe, por exemplo. um KIT, desenvolvido pela IKI Technologies, de fácil aplicação e custo muito reduzido que pode ser adquirido particularmente ou por uma empresa para tornar um espaço mais amigável e integrador, usando a tecnologia de voz como meio auxiliar de iteração com o espaço envolvente.
Foram tentadas e continuam a ser desenvolvidas tecnologias diversas como bengalas electrónicas, o “olho biónico”, etc. segundo Wafa Elmannai e Khaled Elleithy (2017), num longo artigo publicado no PubMed, onde testaram 27 sistemas de apoio diferentes e alicerçados em tecnologias muito diversificadas, chegaram à conclusão que nenhum dos sistemas avaliados foi 100% satisfatório em relação às características fundamentais exigíveis, de forma ao paciente percepcionar e sentir o ambiente que o rodeia. As diversas tecnologias não se complementam e não têm em conta a pessoa em concreto que a está a utilizar. É obvio que muitas tecnologias hoje são desde já uma grande ajuda e estão a ser utilizadas nas mais diversas vertentes.
A cada texto no backoffice corresponde a um Checkpoint que pode ser um ponto de coordenada GPS ou um Beacon, pequeno aparelho que transmite um sinal de Bluetooth para o Smartphone. Isto permite que quando o utilizador passa junto de um Checkpoint o texto correspondente será lido pelos smartphones dos utilizadores, IOS ou Android, em alta voz ou nuns headphones, dando assim informações das mais diversas índoles que serão de extrema utilidade a quem os usa.
O MyEyes é um ecossistema de tecnologia através do qual criamos zonas “blind compliant”, ou seja, zonas adaptadas para pessoas com problemas de visão. Trata-se de um sistema pioneiro através do qual o telemóvel fala com a pessoa em alta voz sempre que encontra um “evento”, ou seja, uma coordenada GPS ou um Beacon, reproduzindo os textos previamente inseridos num robusto sistema existente na Cloud. Estes textos terão o propósito de narrar o que está à volta enquanto dá orientações de como ir de um ponto para outro. Através de uma simples App disponível tanto para Android como IOS e com base em algoritmos diversos, o sistema lança as mensagens em alta voz para as pessoas cegas ou com baixa visão se conseguirem orientar. Por norma na deslocação exterior é utilizado o sinal normal de GPS e nas zonas interiores os Beacons, pequenos equipamentos que emitem um sinal em contínuo que é tratado pelo telemóvel e convertido em voz a partir do texto gravado no backoffice.
No fundo o objectivo primordial deste sistema é criar uma narrativa contextualizada, oportuna e personalizada em termos de informação necessária que é entregue através de um simples dispositivo móvel, como por exemplo um smartphone.
A partir dos testes que já foram realizados, verificou-se uma forte eficácia do sistema, o que é normal. Uma pessoa com problemas de visão se tiver um apoio de voz, pode com facilidade desenvolver a sua actividade diária de uma forma razoável. O sistema encontra-se já instalado em alguns espaços públicos e está a ser preparado para uma massificação. Afinal que vantagens teriam as pessoas nesta situação se tivessem por exemplo, lojas do cidadão, supermercados, centros comerciais, etc. já compatíveis com a tecnologia? Imaginem cidades com espaços preparados para que pessoas com problemas de visão possam andar e usufruir com o mínimo de preocupação com questões de segurança ou incapacidade de progressão no terreno, acesso a instalações básicas de apoio.
O sistema poderá dar também um fortíssimo apoio na aprendizagem dos nossos jovens, quer em ambiente escolar especializado quer na inserção no mundo e no desenvolvimento cognitivo e experiencial, porque é um sistema simples de gerir, utilizar e adaptar às mais diversas situações.
Toda a narrativa desenvolve-se a partir de três níveis; o primeiro mais generalista, diz à pessoa a qualquer altura onde está e descreve genericamente o espaço (por exemplo se a pessoa estiver num campus universitário poderá ter uma narrativa do mesmo, onde estão os principais edifícios, bem como alertar para eventuais situações de perigo ou oportunidades), o segundo já mais detalhado pode descrever uma sala ou um ambiente interior, o terceiro recorrendo aos já utilizados motores de inteligência artificial no campo do reconhecimento de imagens poderá descrever objectos, ou reconhecer pessoas, expressões, cores, etc.
Como disse anteriormente e como sabemos que cada caso é um caso, o sistema poderá ser preparado para experiências pessoais, e depois partilhado com outras pessoas do mundo, e da rede de contactos.
A palavra de ordem é a autonomia que queremos devolver e também o principal enfoque de todo o ecossistema tecnológico que suporta o myEyes, criado pela IKI-Technologies (www.iki.cool).
Por decisão pessoal, o autor deste artigo não segue as regras do novo acordo ortográfico.
1 Este exemplo é colocado aqui com um propósito. Se já conseguimos através da tecnologia colocar um objecto inanimado e deslocar-se autonomamente, porque não conseguiremos ajudar um ser humano vivo com cognição a fazer o mesmo?