Todo negócio começa com uma ideia, mas o valor dessa ideia aumenta mil vezes se criar um impacto social significativo na sociedade. Por exemplo, dois alunos da BITS Goa (Índia), Aman Srivastav e Sanskriti Dawle desenvolveram um projeto chamado 'Mudra' para pessoas com deficiência visual. Mudra é uma palavra sânscrita que significa postura ou gesto; Mudra é uma professora de Braille que ajuda deficientes visuais a aprender ou ler a língua Braille. Mudra é desenvolvido por Raspberry Pi e é um ótimo exemplo de como uma ideia simples pode criar grande impacto social. Aman e Sanskriti a chamaram de “ Annie: Uma Professora de Braille ”, em homenagem ao nome de Anne Sullivan (professora de Helen Keller).
Braille é basicamente um sistema tátil para pessoas cegas ou com deficiência visual lerem e escreverem. Na linguagem braille, cada caractere e número é representado pela combinação de pontos em relevo em um bloco retangular de seis pontos. Como se o ponto superior esquerdo fosse destacado dos seis pontos, então ele representaria o caractere 'A' e se dois pontos superiores esquerdos representassem 'B' e assim por diante. E os deficientes visuais podem sentir esses pontos em relevo ao tocá-los com os dedos.
No Projeto Mudra, seis alfinetes são anexados ao Raspberry Pi, que representa os seis pontos em Braille, e esses alfinetes sobem e descem para denotar qualquer caractere ou número e o usuário pode senti-los colocando as mãos sobre os alfinetes. A API de fala do Google é usada para que o usuário também possa ouvir a saída tátil como uma voz. O software para o Projeto Raspberry pode ser encontrado aqui no Repositório Mudra Git.
Este professor Raspberry Pi Powered Braille Dicta tem três modos: modo automático, modo de navegação e modo de exame. No modo automático, ele gera automaticamente a saída tátil no hardware Braille para cada caractere e número em um loop, e o caractere correspondente também pode ser ouvido usando fones de ouvido ao mesmo tempo. No modo de navegação, o usuário pode fornecer manualmente a entrada de voz falando, e ela será convertida em texto usando a API de fala do Google e a saída tátil correspondente será gerada. No último modo, que é o Modo de Exame, um caractere aleatório é gerado nos Pins e o usuário precisa reconhecê-lo e falá-lo. Em seguida, a API de fala do Google converterá a resposta em texto e a resposta será verificada quanto à exatidão.
Aman e Sanskriti receberam vários prêmios por este projeto criativo e ele foi apresentado em muitas conferências, incluindo a famosa conferência PyCon Python (2014, Montreal). Eles têm planos futuros de convertê-lo em um Produto para fabricação e disponibilizá-lo comercialmente no mercado. Continue visitando o site oficial do ProjectMudra para atualizações e siga-o no Twitter.