Cercetătorii Institutul Californian de Tehnologie din Pasadena, SUA, au creat ochelarii smart care transformă imaginile în sunet şi care pot fi înţeleşi intuitiv, fără o pregătire specială.
Nevăzătorii s-au bazat dintotdeauna pe sunet pentru a substitui vederea, unii au utilizat ecolocaţia pentru a ocoli obiectele. Acum, însă, sunetul poate fi proiectat într-un mod specific pentru a transmite informaţia vizuală. Acest fenomen este folosit în construcţia mijloacelor de navigaţie mai bune pentru nevăzători.
Sursa foto: Stephen Hicks
Dispozitivul, denumit “vOICe” (OIC de la “Oh! I See”), reprezintă o pereche de ochelari fumurii cu o cameră ataşată, conectată la un computer. Ea funcţionază în baza algoritmului dezvoltat în 1992 de inginerul olandez Peter Meijer. Acest sistem converteşte pixelii din camera video în sunet, înregistrând luminozitatea şi localizarea verticală într-o distanţă asociată cu volum.
Un grup de pixeli întunecaţi din partea de jos a ramei ochelarilor emit sunete liniştite şi joase, pe când grupul de pixeli luminoşi din partea superioară a ramei vor răsuna tare şi strident. Modul în care sunetul se schimbă depinde de cum arată imaginile atunci când sunt scanate cadrele de la stânga la dreapta. Sunetul este transmis de căştile care se află în urechea purtătorului.
“Se ia ceva din vizual şi se introduce în auditiv. Creierul, însă, va face exact invers, el va prelua sunetul şi îl ca transforma în mod firesc în imagini”, afirmă cercetătoarea Noelle Stiles, care lucrează asupra proiectului vOICe.
Noelle Stiles şi colegul său Shinsuke Shimojo explică că procesul de transformare a imaginilor în sunet, în acest fel, reflectă modul în care noi asimilăm informaţii din diferite surse. Spre exemplu, perceperea unui trandafir, înseamnă mai mult decât confruntarea cu nuanţa cromatică, trebuie luate în considerare aroma, textura petalelor sale, foşnetul frunzelor sale, întregul ansamblu.
Savanţii Shimojo şi Stiles au lucrat pentru a înţelege cum persoanele pot localiza obiectele prin sunet. Ei au cerut voluntarilor cu deficienţe vizuale să identifice imaginile (dungi, pete şi texturi naturale) cu un sunet, în timp ce nevăzătorii au pipăit aceleaşi texturi şi au selectat sunete care, după părerea lor , le corespund. Modelele de alegere, care au servit drept algoritmi pentru dispozitivul vOICe, păreau că generează un rezultat, mai mult, intuitiv.
Aceste experimente, testate deja pe dispozitiv, au avut rezultate în care voluntarii nevăzătoari, care nu l-au mai încercat, au fost capabili să lege imaginile de un sunet mai des ca voluntarii antrenaţi. Ambele grupuri le-au asociat cu un procent de 33% mai bine decât cei antrenaţi cu vOICe. Însă, în timp ce codificarea dispozitivului a fost inversată astfel încât partea de sus a imaginii să preia sunetul puternic, iar cea de jos să preia sunetul încet, voluntarii au spus că le vine mai greu să lege imaginile cu sunetul.
“Această cerectare demonstrează că nu contează numai câtă informaţie furnizezi, dar şi modul în care persoana o percepe intuitiv”, afirmă profesorul Ione Fine de la Universitatea Washington din Seatle.
Fine subliniază că există o prăpastie între aceste modele distinctive din laborator şi utilizarea vOICe în a observa şi a înţelege lumea reală. Potrivit acesteia, munca ar putea ajuta, în cele din urmă, la proiectarea unor ajutoare vizuale mai bune.
Stiles şi Shimojo folosesc acum datele funcţionale ale RMN în analiza activităţii creierului pentru acest sistem de cartografiere intuitiv.