🧨 Retragerea GPT-4o, GPT-4.1, GPT-4.1 mini și OpenAI o4-mini în ChatGPT ↗
OpenAI a scos GPT-4o (plus câteva variante similare) din selectorul de modele ChatGPT, subliniind în același timp că gama de API-uri nu se schimbă - cel puțin nu în același timp. Este o mișcare discretă de „mergem mai departe” care totuși se lovește de ușă.
De asemenea, au recunoscut clar ceea ce se spunea deja: GPT-4o avea o senzație aparte - mai caldă, mai umană - și încearcă să o distileze în modele mai noi, cu controale mai precise, în stil de răspuns. Această parte liniștește și încă mă doare faptul că lecția a venit abia după ce cea veche a dispărut.
💔 OpenAI și-a retras cel mai seducător chatbot - lăsând utilizatorii furioși și îndurerați: „Nu pot trăi așa” ↗
O parte dintre utilizatori nu au tratat GPT-4o ca pe un „software”, ci l-au tratat ca pe o relație - uneori literalmente romantică, alteori doar cel mai sigur tovarăș pe care îl aveau. Închiderea a declanșat un adevărat doliu: furie, negocieri, discuții în grup, întregul bufet emoțional.
Ceea ce este izbitor este cât de specifice sunt reclamațiile: modelele mai noi par mai plate, mai rezervate, mai puțin jucăușe - mai sigure, sigur, dar și mai puțin... prezente. E ca și cum ai schimba o scrisoare de mână mototolită cu un memo perfect formatat și apoi ți se spune că e „mai bună” (poate, dar acum).
🌍 ONU aprobă un grup științific format din 40 de membri pentru a studia impactul inteligenței artificiale, în ciuda obiecțiilor SUA ↗
Adunarea Generală a ONU a susținut un nou grup științific menit să evalueze impactul și riscurile inteligenței artificiale, ideea fiind: îndrumări globale bazate pe cercetare, nu doar pe cine are cele mai zgomotoase laboratoare și cel mai mare buget de calcul.
Votul nu a fost unanim - SUA au obiectat vehement, argumentând că guvernarea inteligenței artificiale nu ar trebui să se afle sub umbrela ONU și avertizând cu privire la politica controlului internațional. Așadar, da, panelul începe cu „știința” pe etichetă și geopolitica pe capsulă - o asociere clasică.
🎓 Anthropic colaborează cu CodePath pentru a-l aduce pe Claude la cel mai mare program universitar de informatică din SUA ↗
Anthropic și CodePath îl împing pe Claude direct către cursurile de informatică și programele de carieră, cu scopul de a face din „codarea asistată de inteligență artificială” abilitatea implicită pe care studenții o exersează, nu o misiune secundară. Amploarea contează aici - nu doar școlile de elită primesc jucăriile strălucitoare.
Argumentul este axat pe egalitate: dacă munca în domeniul software se schimbă rapid, atunci accesul la instrumente de avangardă nu poate fi un club privat. E cam ca și cum le-ai da tuturor o unealtă electrică în același timp - incitant, ușor terifiant, probabil necesar.
🤖 Alibaba intră în cursa inteligenței artificiale fizice cu modelul de robot open-source RynnBrain ↗
Academia DAMO a Alibaba a introdus RynnBrain ca un model open-source de „IA fizică” - practic, creiere pentru roboți care trebuie să vadă, să planifice și să acționeze în spații reale turbulente, nu doar să vorbească despre ele. Gândiți-vă la bucătării, depozite, oriunde obiectele adoră să fie enervante.
Semnalul mai important este strategic: din nou open-source, plus o încercare clară de a sta la masa adulților a modelelor de fundații robotice. E ca și cum ar planta un steag care spune „nu suntem doar în cloud - vrem și mâini și picioare”
📰 Dev Pragad, CEO-ul Newsweek, avertizează editorii: adaptați-vă, deoarece inteligența artificială devine o poartă de acces la știri ↗
Mesajul lui Dev Pragad către editori este direct: instrumentele de inteligență artificială devin ușa de la intrarea în informații, așa că firmele media nu se mai pot preface că vechile canale de distribuție vor rezista ca prin magie. Dacă publicul tău ajunge prin intermediul rezumatelor și al răspunsurilor prin chat, modelul tău de afaceri începe să pară... instabil.
Subtextul este mai înfricoșător decât titlul - atenția este redirecționată, iar „loialitatea față de marcă” se poate evapora atunci când un model îți parafrazează munca pe același ton ca toți ceilalți. E ca și cum ai încerca să vinzi pâine artizanală într-o lume în care toată lumea mănâncă felii din aceeași pâine infinită.
FAQ
Ce înseamnă că OpenAI retrage GPT-4o din selectorul de modele ChatGPT?
Asta înseamnă că GPT-4o (împreună cu GPT-4.1, GPT-4.1 mini și OpenAI o4-mini) nu mai este disponibil pentru selectare în selectorul de modele din ChatGPT. Această modificare se referă la ceea ce puteți alege în interfața cu utilizatorul ChatGPT, nu neapărat la un „model care a dispărut peste tot”. Pentru mulți utilizatori, impactul este imediat: experiența specifică GPT-4o nu mai este selectabilă.
Retragerea GPT-4o din ChatGPT este același lucru cu schimbarea API-ului OpenAI?
Nu neapărat. Anunțul subliniază faptul că gama de API-uri nu se schimbă „în același timp”, ceea ce sugerează că modificarea selectorului ChatGPT și disponibilitatea API-ului nu sunt legate automat. În practică, este util să tratați disponibilitatea modelului ChatGPT și disponibilitatea modelului API ca butoane separate. Dacă rulați aplicații prin intermediul API-ului, confirmați ID-urile modelului și actualizați planurile dacă se schimbă ceva ulterior.
De ce spun oamenii că GPT-4o se simte mai „uman” și pot modelele mai noi să recreeze această senzație?
Utilizatorii descriu GPT-4o ca fiind mai cald, mai jucăuș și mai puțin rezervat decât opțiunile mai noi. OpenAI a recunoscut că oamenii au perceput o „senzație” distinctă și a spus că încearcă să o distileze în modele mai noi, folosind controale de tip răspuns mai stricte. Acest lucru indică un obiectiv al unui ton și al unei personalități mai ușor de controlat, fără a se baza pe exact acel model vechi. Un compromis pe care mulți utilizatori îl observă este siguranța și consecvența versus spontaneitatea.
De ce unii utilizatori se simt îndurerați de GPT-4o ca de o relație și care este o modalitate sănătoasă de a gestiona această situație?
Unii oameni nu tratau GPT-4o ca pe un software - îl foloseau ca pe un companion constant, uneori cu o încadrare romantică - iar eliminarea lui a declanșat un doliu real. Dacă te simți cu adevărat supărat, poate fi util să numești ce ai obținut de pe urma lui (confort, rutină, validare) și să găsești înlocuitori care nu depind de un singur produs. Discuțiile cu prietenii, scrierea unui jurnal sau discuțiile cu un profesionist în sănătate mintală pot fi de ajutor dacă suferința este intensă.
Ce este parteneriatul Anthropic-CodePath și cum îi afectează pe studenții de informatică?
Parteneriatul dintre Anthropic și CodePath își propune să-l includă pe Claude în cursurile de informatică și în programele de carieră la scară largă. Intenția este de a face din „codarea asistată de inteligență artificială” o competență implicită pe care studenții o practică, mai degrabă decât un supliment opțional. Concepută ca o mișcare de acces și echitate, aceasta împinge instrumentele de frontieră în formarea obișnuită, astfel încât studenții să nu fie împărțiți în „cei care au și cei care nu au inteligență artificială”. De asemenea, ridică ștacheta în ceea ce privește predarea verificării și a gândirii critice, alături de viteză.
Ce alte schimbări majore în domeniul inteligenței artificiale au avut loc odată cu retragerea GPT-4o și de ce contează acestea?
Mai multe inițiative indică extinderea inteligenței artificiale dincolo de chat. ONU a aprobat un grup științific format din 40 de membri pentru a evalua impactul și riscurile inteligenței artificiale, chiar dacă SUA s-au opus guvernării centrate pe ONU. Academia DAMO a Alibaba a introdus RynnBrain, un model open-source de „IA fizică” care vizează roboții care operează în medii fizice nestructurate. Iar editorii sunt avertizați că instrumentele de inteligență artificială devin ușa de intrare către știri, punând presiune pe mass-media să se adapteze pe măsură ce modelele de distribuție și loialitate se schimbă.