Prima versiune comercială a acestui nou tip de cip de computer este programat să fie lansat pe piaţă în 2014. Pe lângă faptul că el este capabil să automatizeze sarcini care astăzi necesită o programare minuţioasă — spre exemplu, mişcarea braţului unui robot într-un mod fluid şi eficient — dar poate totodată şi să evite sau chiar să tolereze erori, reuşită ce are potenţialul să elimine termenul de „eroare de computer”.
Această nouă abordare a computerelor, ce este deja folosită de anumite companii de tehnologie, se bazează pe sistemele nervoase biologice, mai exact pe modul în care neuronii reacţionează la stimuli şi la modul în care se conectează cu alţi neuroni pentru a interpreta informaţia. Ea permite computerelor să absoarbă informaţii noi în timp ce efectuează o sarcină, pentru a putea ajuta ceea ce fac în funcţie de modul în care se schimbă semnalele.
În anii următor, abordarea va face posibilă o nouă generaţie de sisteme de inteligenţă artificială care vor efectua anumite funcţii pe care oamenii le pot îndeplini cu uşurinţă: să vadă, vorbească, asculte, navigheze, manipuleze şi să controleze. Noua abordare are consecinţe importante pentru sarcini precum recunoaşterea facială şi cea vocală, pentru navigare şi planificare, care astăzi se află în etape elementare şi care se bazează foarte mult pe programarea umană.
Designerii afirmă că acest nou stil de calcul deschide calea pentru roboţi care pot merge şi conduce în siguranţă în lumea fizică. Cu toate acestea, specialiştii afirmă că acel element preferat al lucrărilor SF, un computer gânditor sau conştient, este încă departe de a fi realizat.
„Facem trecerea de la sisteme de calcul inginereşti la ceva ce are multe dintre caracteristicile calculului biologic”, afirmă Larry Smarr, un astrofizician care conduce California Institute for Telecommunications and Information Technology, unul din numeroasele centre de cercetare dedicate dezvoltării acestor noi tipuri de circuite ale computerelor.
Computerele convenţionale sunt limitate de ceea ce au fost programate să facă. Sistemele de vedere computerizată, spre exemplu, „recunosc” doar obiectele care pot fi identificate de algoritmii orientaţi de staticiă ce au fost programaţi în ele. Un algoritm este precum o reţetă: o serie de instrucţiuni pas-cu-pas pentru efectuarea unui calcul.
Anul trecut, însă, cercetătorii de la Google au reuşit să facă un algoritm de tip machine-learning, cunoscut şi sub numele de „reţea neuronală”, să efectueze o sarcină de identificare fără supraveghere. Algoritmul a scanat o bază de date ce conţinea 10 milioane de imagini şi s-a învăţat singur cum să recunoască pisici în imagini.
În iunie, compania a anunţat că a folosit aceste tehnici de reţele neuronale pentru a concepe un nou serviciu de căutare care să le permită clienţilor să descopere fotografii cu mai multă acurateţe.
Noua metodă, ce este folosită atât în hardware, cât şi în software, este ajutată de o explozie a cunoştinţelor ştiinţifice despre creier. Kwabena Boahen, un informatician care conduce programul de cercetare Brains in Silicon de la Universitatea Stanford, afirmă că aceasta este totodată limitarea sistemului, căci oamenii de ştiinţă sunt departe de a înţelege în întregime cum funcţionează creierele.
„Nu avem idee”, afirmă specialistul. „Sunt un inginer şi construiesc lucruri. Acestea sunt teorii interesante, dar daţi-mi una care să-mi permită să construiesc ceva”, spune Boahen.
Până acum, designul computerelor era dictat de idei concepute de matematicianul John von Neumann acum 65 de ani. Microprocesoarele realizează operaţiuni la o viteză uluitoare, urmând instrucţiunile programate folosind şiruri lungi de 0 şi 1. În general, această informaţie este stocată în ceea ce este denumit în mod popular „memorie”, fie chiar în procesor, fie într-un cip de stocare adiacent sau în discuri magnetice.
Datele (spre exemplu, temperaturile pentru un model climatic sau literele dintr-un procesor de cuvinte) sunt deplasate în interiorul şi în afara memoriei pe termen scurt a procesorului atunci când computerul îndeplineşte acţiunea programată. Rezultatul este apoi mutat în memoria principală.
Noile procesoare sunt formate din componente electroncie care pot fi conectate prin fire care imită sinapsele biologice. Deoarece se bazează pe grupuri mari de elemente similare neuronilor, acestea sunt cunoscute sub numele de „procesoare neuromorfe”, termen atribuit fizicianului Carver Mead de la California Institute of Technology, care a conceput ideea în anii ’80.
Aceste procesoare nu sunt „programate”. Mai degrabă, conexiunilor dintre circuite li se acordă o importanţă diferită în funcţie de corelările între datele pe care procesorul le-a „învăţat” deja. Aceste grade diferite de importanţă sunt modificate pe măsură ce datele pătrund în cip, modificându-le valorile. Acest lucru generează un semnal care călătoreşte la alte componente şi, ca reacţie, provoacă schimbări în reţeaua neuronală, programând practic următoarele acţiuni într-un mod similar în care informaţiile modifică gândurile şi acţiunile umane.
„În loc să aducem datele la calcul, aşa cum facem astăzi, acum putem aduce calculele la date”, a explicat Dharmendra Modha, un informatician de la IBM care conduce eforturile de cercetare ale companiei în domeniul „calculului cognitiv”. „Senzorii devin computerul, iar asta deschide o nouă cale ce ne permite să folosim cipuri de computere oriunde”, spune Modha.
Noile computere, care se bazează tot pe cipuri de siliciu, nu vor înlocui computerele de astăzi, dar le vor amplifica, cel puţin pentru prezent. Mulţi designeri de computere le percep drept co-procesoare, ceea ce înseamnă că pot funcţiona în tandem cu alte circuite care pot fi introduse în telefoane inteligente şi în uriaşele computere centralizate ce formează cloud-ul. Computerele moderne sunt deja compuse din o serie de co-procesoare ce îndeplinesc sarcini specializate, precum producerea elementelor grafice pe telefoanele inteligente sau transformarea datelor video, audio şi de altă natură în laptopul dumneavoastră.
Un mare avantaj al noii metode este faptul că poate tolera greşeli. Computerele tradiţionale sunt precise, dar nu pot funcţiona atunci când cedează fie şi un singur tranzistor. În cazul designului biologic, algoritmii se schimbă în mod constant, permiţând sistemului să se adapteze în mod constant şi să evite problemele, ducând la bun sfârşit sarcinile.
Computerele tradiţionale sunt totodată extrem de ineficiente din punct de vedere energetic, mai ales atunci când sunt comparate cu creierul, pe care noii neuroni sunt concepuţi să îl imite.
Anul trecut, IBM a anunţat că a construit cu ajutorul unui supercomputer o simulare a creierului uman ce includea aproximativ 10 miliarde de neuroni, adică peste 10% din totalul dintr-un creier uman. Simularea funcţiona de 1.500 de ori mai lent decât un creier uman, şi necesita câţiva megawaţi de putere, faţă de doar 20 de waţi, cât necesită un creier biologic.
Dr. Modha afirmă că pentru a rula acest program la viteza unui creier uman, ar fi nevoie de aceeaşi cantitate de curent electric cât consumă împreună oraşele New York şi San Francisco.
IBM, Qualcomm şi o echipă de cercetare de la Stanford au proiectat deja procesoare neuromorfe, iar Qualcomm a anunţat că în 2014 va lansa o versiune comercială, despre care specialiştii se aşteaptă să fie folosită în mare parte pentru dezvoltări ulterioare. Numeroase universităţi au anunţat că se concentrează asupra acestui nou stil de calcul, iar în SUA a fost lansat un nou centru de cercetare, The Center for Brains, Minds and Machines.
Cea mai mare clasă la Universitatea Stanford anul acesta a fost la un curs despre machine learning, în care erau prezentate atât abordări statistice, cât şi unele biologice. Peste 760 de studenţi s-au înscris la cursul predat de informaticianul Andrew Ng. „Acest lucru reflectă zeitgeist-ul actual. Toată lumea ştie că se întâmplă ceva important şi vor să afle despre ce este vorba”, concluzionează Terry Sejnowski, un specialist în neuroştiinţe computaţionale de la Salk Institute, care a fost unul din pionierii algoritmilor inspiraţi din biologie.
Sursa: New York Times