O soluție software dezvoltată de Intel își propune să aplice puterea inteligenței artificiale pe fețele și limbajul corpului studenților digitali. Conform Protocolului, soluția este distribuită ca parte a produsului software „Class” și își propune să ajute în tehnicile de educație ale profesorilor, permițându-le să vadă stările mentale deduse de AI (cum ar fi plictiseala, distracția sau confuzia) ale fiecăruia. student. Intel își propune să extindă programul pe piețe mai largi în cele din urmă. Cu toate acestea, tehnologia a fost întâmpinată cu respingeri care aduc în prim plan dezbaterile despre AI, știință, etică și confidențialitate.
Funcția bazată pe inteligență artificială, care a fost dezvoltată în parteneriat cu Classroom Technologies, este integrată cu Zoom prin intermediul produsului software „Class” al primului. Poate fi folosit pentru a clasifica limbajul corpului și expresiile faciale ale elevilor ori de câte ori au loc cursuri digitale prin intermediul aplicației de videoconferință. Citând experiențele proprii ale profesorilor în urma lecțiilor de la distanță luate în timpul pandemiei de COVID-19, Michael Chasen, co-fondator și CEO al Classroom Technologies, speră ca software-ul său să ofere profesorilor informații suplimentare, îmbunătățind în cele din urmă experiențele de învățare la distanță.
Software-ul folosește fluxurile video ale studenților, pe care le alimentează în motorul AI alături de informații contextuale, în timp real, care îi permit să clasifice înțelegerea de către studenți a materiei. Sinem Aslan, cercetător de la Intel care a contribuit la dezvoltarea tehnologiei, spune că obiectivul principal este de a îmbunătăți sesiunile de predare individuală, permițând profesorului să reacționeze în timp real la starea de spirit a fiecărui elev (înghinindu-i în orice fel). direcția este considerată necesară).
Dar, deși scopul Intel și Classroom Technologies poate fi bine intenționat, premisa științifică de bază din spatele soluției AI – că limbajul corpului și alte semnale externe pot fi utilizate cu precizie pentru a deduce starea mentală a unei persoane – este departe de a fi o dezbatere închisă.
În primul rând, cercetările au arătat pericolele etichetării: acțiunea de a încadra informațiile – uneori chiar de a le pune la pantofi – în categorii ușor de perceput (dar în cele din urmă și adesea prea simpliste).
Încă nu înțelegem pe deplin dimensiunile externe prin care oamenii își exprimă stările interne. De exemplu, ființa umană obișnuită se exprimă prin zeci (unii spun chiar sute) de microexpresii (pupilele dilatate, de exemplu), macroexpresii (zâmbet sau încruntat), gesturi corporale sau semnale fiziologice (cum ar fi transpirația, creșterea ritmului cardiac. , si asa mai departe).
Este interesant să ne gândim la modelul tehnologiei AI – și la acuratețea acesteia – atunci când comunitatea științifică însăși nu a reușit să ajungă la o concluzie certă cu privire la transpunerea acțiunii externe către stări interne. Construirea caselor pe nisipuri mișcătoare rar funcționează.
Un alt avertisment demn de remarcat și potențial pentru motorul AI este că exprimarea emoțiilor variază și între culturi. În timp ce majoritatea culturilor ar echivala zâmbetul cu o expresie a fericirii interne, cultura rusă, de exemplu, își rezervă zâmbetele pentru prietenii apropiați și pentru familie – a fi prea zâmbitor într-un context greșit este interpretat ca o lipsă de inteligență sau onestitate. Extindeți acest lucru către multitudinea de culturi, etnii și variații individuale și vă puteți imagina implicațiile acestor „ciudații” personale și culturale asupra acurateței modelului AI.
Potrivit lui Nese Alyuz Civitci, cercetător de învățare automată la Intel, modelul companiei a fost construit cu perspicacitatea și expertiza unei echipe de psihologi, care au analizat datele adevărului de la sol capturate în cursurile din viața reală folosind laptop-uri cu camere 3D. Echipa de psihologi a continuat apoi să examineze videoclipurile, etichetând emoțiile pe care le-au detectat pe parcursul fluxurilor. Pentru ca datele să fie valide și integrate în model, cel puțin doi din trei psihologi au trebuit să cadă de acord asupra modului de etichetare.
Civitci de la Intel însuși i-a fost extrem de greu să identifice diferențele fizice subtile dintre posibilele etichete. În mod interesant, Aslan spune că IA de analiză emoțională de la Intel nu a fost evaluată dacă reflecta cu acuratețe emoțiile reale ale elevilor, ci mai degrabă pe baza rezultatelor sale instrumentale sau de încredere de către profesori.
Există nenumărate întrebări care pot fi puse cu privire la sistemele AI, datele de antrenament ale acestora (care au consecințe grave, de exemplu, asupra tehnologiei de recunoaștere facială folosită de forțele de ordine) și dacă rezultatele acesteia pot fi de încredere. Sisteme precum acestea se pot dovedi benefice, determinând profesorii să pună întrebarea potrivită, la momentul potrivit, unui elev cu probleme în prezent. Dar poate fi, de asemenea, în detrimentul performanței elevilor, bunăstării și chiar succesului lor academic, în funcție de acuratețea acesteia și de modul în care profesorii îl folosesc pentru a-și informa opiniile despre elevi.
Apar și întrebări legate de analiza pe termen lung a stărilor emoționale ale studenților – ar putea un raport din sisteme ca acestea să fie folosit de o companie care angajează studenți direct plecați de la universitate, cu etichete precum „deprimat” sau „atenți”? La ce măsură a acestor date ar trebui să aibă acces persoanele afectate? Și cum rămâne cu intimitatea emoțională a elevilor – capacitatea lor de a-și menține stările emoționale interiorizate? Ne simțim confortabil că emoțiile noastre sunt etichetate și accesibile oricui – mai ales dacă există cineva într-o poziție de putere de cealaltă parte a AI?
Linia dintre supraveghere și tehnologiile de asistență bazate pe inteligență artificială pare să se subțieze, iar sala de clasă este doar unul dintre mediile în joc. Asta aduce o interpretare cu totul nouă pentru purtarea inimii noastre pe mâneci.