🏫 În unele școli, chatboții îi interoghează pe elevi despre munca lor. Dar revoluția inteligenței artificiale îi îngrijorează pe profesori ↗
Unele școli australiene testează o abordare mai radicală a conceptului de „prezentare a lucrărilor” - elevii termină o temă, apoi un chatbot cu inteligență artificială îi chestionează într-un schimb de replici pentru a verifica dacă au înțeles ce au predat. Este practic o audiție orală, dar cu o mașină care te întreabă „ce vrei să spui prin asta?” până când începi să te foiești.
Cea mai mare îngrijorare este implementarea inegală: un studiu din domeniu avertizează că cei care adoptă rapid tehnologia ar putea avansa rapid, în timp ce alții ar putea rămâne în urmă, creând un sistem educațional cu două viteze. Profesorii continuă, de asemenea, să semnaleze preocupările familiare - și încă serioase -: confidențialitatea, bunăstarea și cum să împiedice trecerea de la „ajutorul IA” la „IA a reușit”.
👮 Poliția metropolitană folosește instrumente de inteligență artificială furnizate de Palantir pentru a semnala abaterile ofițerilor ↗
Poliția Metropolitană din Londra folosește inteligența artificială furnizată de Palantir pentru a analiza tiparele interne ale forței de muncă - concedii medicale, absențe, ore suplimentare - căutând semnale care s-ar putea corela cu probleme legate de standardele profesionale. Este prezentat ca un proiect pilot cu o durată limitată și, în mod crucial, Poliția Metropolitană spune că oamenii încă fac deciziile... dar acel „încă” face multă muncă.
Federația Poliției nu este încântată, numind-o „suspiciune automată” și avertizând despre instrumentele opace care interpretează greșit stresul și volumul de muncă drept fapte ilegale. Este unul dintre acele momente în care tehnologia sună ingenioasă pe un slide, apoi îți imaginezi cum se simte pe teren și devine brusc dificilă.
🛡️ Organismul britanic de supraveghere a vieții private avertizează într-o declarație comună cu privire la imaginile generate de inteligența artificială ↗
ICO din Marea Britanie s-a alăturat altor autorități de reglementare într-un avertisment comun cu privire la imaginile generate de inteligența artificială care înfățișează persoane identificabile fără consimțământ - practic: nu tratați „e sintetic” ca pe o scuză magică. Mesajul este să se construiască măsuri de siguranță din timp și să se implice autoritățile de reglementare, în loc să se facă mișcarea tehnologică clasică de a expedia mai întâi și a-și cere scuze mai târziu.
De asemenea, subliniază riscuri sporite pentru copii, ceea ce are sens, pentru că odată ce aceste lucruri se răspândesc, e ca și cum ai încerca să pui sclipici înapoi într-un borcan. Ideea principală este că intimitatea și demnitatea sunt menite să supraviețuiască ciclului modei, sau cel puțin așa pare.
🪖 Secretarul american al Apărării, Hegseth, îl convoacă pe directorul general al Anthropic pentru discuții dure privind utilizarea militară a lui Claude, relatează Axios ↗
Reuters relatează că secretarul american al Apărării urmează să se întâlnească cu directorul general al Anthropic pentru ceea ce este descris ca o conversație mai conflictuală despre utilizarea militară a lui Claude. Se pare că Pentagonul dorește ca principalii furnizori de inteligență artificială să pună modelele la dispoziție pe rețele clasificate cu mai puține restricții - iar Anthropic s-a opus oricărei relaxări a garanțiilor.
Subtextul se citește ca o dilemă clasică de tipul „mișcă-te rapid, dar... cu rachete implicate”. Dacă părțile nu se pot pune de acord asupra unor paravane, relația s-ar putea încorda sau chiar rupe - totuși, Anthropic semnalează, de asemenea, că discuțiile cu guvernul rămân constructive, așa că este tensionat, dar nu există texte de despărțire completă (încă).
🧠 Note de lansare - ChatGPT ↗
Notele de lansare OpenAI indică o fereastră de context extinsă pentru modul „Gândire” - ceea ce înseamnă că puteți alimenta modelul cu mai mult text și puteți menține coerența firelor de discuție mai lungi fără ca acesta să omită detalii anterioare. Dacă ați văzut vreodată un model „uitând” ceva ce tocmai ați spus (durere), acest lucru este specific acestui scop.
Este o modernizare foarte tocilară care schimbă discret aspectele practice: documente mai lungi, proiecte mai încâlcite, sesiuni de cercetare mai ample. Nu e glamuroasă, dar e genul de schimbare la instalațiile sanitare care face ca dintr-o dată întreaga casă să pară mai mare.
FAQ
Ce înseamnă când școlile folosesc chatbot-uri pentru a „interoga” elevii despre teme?
În unele școli australiene, elevii termină o temă, apoi trec printr-un schimb de replici cu un chatbot cu inteligență artificială care le verifică raționamentul. Funcționează ca o audiere orală, determinându-i pe elevi să explice ce au scris și de ce. Scopul este de a verifica înțelegerea, nu doar rezultatul. De asemenea, poate scoate la iveală lacunele atunci când un elev nu își poate susține afirmațiile cheie.
Cum ar putea chatboții cu inteligență artificială din școli să creeze un sistem educațional „cu două viteze”?
Un studiu din domeniu avertizează că școlile care adoptă rapid sistemele ar putea avansa, în timp ce școlile care avansează mai lent ar putea rămâne și mai în urmă. Dacă unele școli implementează instrumente de inteligență artificială pentru a evalua înțelegerea, a sprijini învățarea sau a descuraja utilizarea necorespunzătoare, acestea ar putea îmbunătăți rezultatele mai repede. Altele ar putea duce lipsă de buget, capacitate de personal sau claritate în politicile necesare pentru a implementa sisteme comparabile. Această adoptare inegală poate adânci decalajele existente în materie de resurse și de performanță.
Cum încearcă profesorii să împiedice transformarea ideii „AI ajută” în „AI a făcut-o”?
O abordare obișnuită este de a muta evaluarea către proces și explicații, nu doar către produsul finit. Întrebările, schițele, reflecțiile sau verificările orale de tip chatbot pot îngreuna predarea unor lucrări pe care nu le înțelegeți. De asemenea, profesorii pot stabili limite mai ferme privind asistența acceptabilă, cum ar fi brainstorming-ul versus rescrierea completă. Accentul rămâne pe demonstrarea înțelegerii, nu pe controlul fiecărui instrument.
Ce probleme de confidențialitate și bunăstare apar atunci când inteligența artificială este utilizată în sălile de clasă?
Profesorii își exprimă în mod constant îngrijorarea cu privire la datele elevilor colectate, unde sunt stocate și cine le poate accesa. Există, de asemenea, îngrijorări legate de bunăstare dacă elevii se simt monitorizați sau presați în permanență de întrebări automate. Copiii reprezintă un grup de risc special, deoarece informațiile sensibile se pot răspândi sau pot persista în sisteme în moduri neașteptate. Multe școli își propun să implementeze măsuri de siguranță din timp, mai degrabă decât să încerce să le adapteze ulterior.
Cum folosește Poliția Metropolitană inteligența artificială furnizată de Palantir pentru a semnala potențiale abateri ale ofițerilor?
Poliția Metropolitană din Londra folosește inteligența artificială furnizată de Palantir pentru a analiza tiparele forței de muncă, cum ar fi concediile medicale, absențele și orele suplimentare. Scopul este de a identifica semnale care s-ar putea corela cu probleme legate de standardele profesionale. Este descris ca un proiect pilot cu durată limitată, iar Poliția Metropolitană spune că oamenii fac în continuare aceste determinări. Criticii susțin că instrumentul poate părea o „suspiciune automată” dacă interpretează stresul ca pe o faptă greșită.
De ce sunt îngrijorate sindicatele poliției de „suspiciunile automate” provenite de la instrumentele de supraveghere bazate pe inteligență artificială?
Îngrijorarea Federației Poliției este că modelele opace pot deduce abateri de la regulile de conduită din tipare care au explicații benigne. Creșterile bruște ale volumului de muncă, problemele de sănătate și stresul pot modifica prezența sau orele suplimentare fără a implica abateri. Dacă logica instrumentului nu este transparentă, devine mai greu pentru ofițeri să conteste semnalele sau pentru manageri să calibreze pragurile corecte. Chiar și cu decizii umane, semnalele automate pot influența rezultatele.
Care este avertismentul ICO din Marea Britanie privind imaginile generate de inteligența artificială ale unor persoane identificabile?
Organismul de supraveghere a vieții private din Marea Britanie s-a alăturat altor autorități de reglementare avertizând că „sintetic” nu înseamnă fără consecințe. Dacă o imagine generată de inteligență artificială înfățișează o persoană identificabilă fără consimțământ, riscurile pentru confidențialitate și demnitate se aplică în continuare. Autoritățile de reglementare subliniază necesitatea construirii unor garanții din timp și a implicării în supraveghere, mai degrabă decât a transmiterii mai întâi a informațiilor. De asemenea, acestea semnalează riscuri sporite pentru copii, unde daunele se pot agrava rapid odată ce conținutul se răspândește.
Ce se află în spatele presupuselor presiuni ale Pentagonului asupra Anthropic cu privire la utilizarea militară a lui Claude?
Reuters relatează că secretarul american al Apărării urmează să se întâlnească cu directorul general al Anthropic pentru discuții mai dure privind utilizarea militară a sistemului Claude. Se pare că Pentagonul dorește ca principalii furnizori de inteligență artificială să pună modelele la dispoziție pe rețele clasificate cu mai puține restricții. Anthropic s-a opus unor garanții mai relaxate, indicând un conflict privind barierele de siguranță. Relația pare tensionată, deși ambele părți semnalează că discuțiile rămân constructive.
Ce s-a modificat în notele de lansare ChatGPT privind lungimea contextului modului „Gândire”?
Notele de lansare OpenAI indică o fereastră contextuală extinsă pentru modul „Gândire”, permițând stocarea unei cantități mai mari de text într-un singur fir de discuție. În practică, acest lucru poate fi util în cazul documentelor lungi, al proiectelor complexe și al cercetărilor în mai mulți pași, unde detaliile anterioare contează. Este o îmbunătățire de tip instalator, mai degrabă decât o funcție extravagantă. Principalul avantaj este reprezentat de mai puține detalii pierdute în sesiunile mai lungi.