Jedes Unternehmen beginnt mit einer Idee, aber der Wert dieser Idee wird tausendfach, wenn sie erhebliche soziale Auswirkungen auf die Gesellschaft hat. Wie zwei Studenten von BITS Goa (Indien), Aman Srivastav und Sanskriti Dawle, entwickelten sie ein Projekt namens "Mudra" für sehbehinderte Menschen. Mudra ist ein Sanskrit-Wort, das Haltung oder Geste bedeutet. Mudra ist ein Braille-Lehrer, der sehbehinderten Menschen beim Erlernen oder Lesen der Braille-Sprache hilft. Mudra wird von Raspberry Pi unterstützt und ist ein großartiges Beispiel dafür, wie eine einfache Idee große soziale Auswirkungen haben kann. Aman und Sanskriti nannten es " Annie: A Braille Teacher ", nach dem Namen Anne Sullivan (Lehrerin von Helen Keller).
Braille ist im Grunde ein taktiles System, mit dem blinde oder sehbehinderte Menschen lesen und schreiben können. In der Braille-Sprache wird jedes Zeichen und jede Zahl durch die Kombination von erhabenen Punkten in einem rechteckigen Block von sechs Punkten dargestellt. Wenn der obere linke Punkt aus den sechs Punkten angehoben wird, steht er für das Zeichen 'A', und wenn zwei obere linke angehobene Punkte für 'B' stehen und so weiter. Und sehbehinderte Menschen können diese erhabenen Punkte spüren, indem sie sie mit den Fingern berühren.
In Project Mudra sind sechs Stifte an Raspberry Pi angebracht, der die sechs Punkte in Blindenschrift darstellt. Diese Stifte gehen auf und ab, um ein beliebiges Zeichen oder eine beliebige Zahl zu kennzeichnen, und der Benutzer kann sie erkennen, indem er seine Hände über die Stifte legt. Die Google Speech API wird verwendet, damit Benutzer die taktile Ausgabe auch als Stimme hören können. Software für das Raspberry-Projekt finden Sie hier im Mudra Git Repository.
Dieser Raspberry Pi Powered Braille Dicta-Lehrer verfügt über drei Modi: Auto-Modus, Browse-Modus und Prüfungsmodus. Im Auto-Modus wird automatisch die taktile Ausgabe auf Braille-Hardware für jedes Zeichen und jede Nummer in einer Schleife generiert, und das entsprechende Zeichen kann gleichzeitig auch über Kopfhörer gehört werden. Im Durchsuchen-Modus kann der Benutzer die Spracheingabe manuell durch Sprechen bereitstellen. Sie wird mithilfe der Google Speech API in Text konvertiert und eine entsprechende taktile Ausgabe wird generiert. Im letzten Modus, dem Prüfungsmodus, wird ein zufälliges Zeichen auf den Pins generiert, und der Benutzer muss es erkennen und sprechen. Anschließend konvertiert die Google Speech API die Antwort in Text und die Antwort wird auf Richtigkeit überprüft.
Aman und Sanskriti haben mehrere Auszeichnungen für dieses kreative Projekt erhalten und es wurde auf vielen Konferenzen vorgestellt, darunter auf der berühmten PyCon Python-Konferenz (2014, Montreal). Sie haben einen zukünftigen Plan, es in ein Produkt für die Herstellung umzuwandeln und es auf dem Markt kommerziell verfügbar zu machen. Besuchen Sie weiterhin die offizielle ProjectMudra-Website, um Updates zu erhalten, und folgen Sie ihr auf Twitter.