Știri despre inteligența artificială 28 ianuarie 2026

Rezumatul știrilor despre inteligența artificială: 28 ianuarie 2026

🧬 DeepMind lansează AlphaGenome pentru a identifica factorii genetici care cauzează bolile

DeepMind a lansat AlphaGenome, un sistem de inteligență artificială menit să prezică modul în care mutațiile ADN-ului modifică reglarea genelor - practic, când, unde și cât de tare se activează genele. Acesta poate scana porțiuni uriașe de ADN dintr-o dată, inclusiv regiunile necodificatoare extinse care adesea par a fi materie întunecată biologică.

Ideea este destul de directă: identificarea mai rapidă a mutațiilor cu adevărat importante pentru lucruri precum riscul de cancer și bolile moștenite complexe. Dacă funcționează așa cum se afirmă, cercetătorii petrec mai puțin timp ghicind și mai mult timp testând lucrurile corecte - ceea ce pare evident, dar este cam esențial.

🧑💼 Inteligența artificială va costa locuri de muncă, recunoaște Liz Kendall

Secretarul pentru tehnologie al Regatului Unit a declarat deschis că adoptarea inteligenței artificiale va cauza pierderi de locuri de muncă - nu atmosfera obișnuită de genul „va fi bine, promit”. Ea a subliniat anxietatea legată de posturile de admitere la studii postuniversitare în domenii precum dreptul și finanțele și nu a pretins că există un număr considerabil de locuri de muncă disponibile.

În același timp, guvernul se concentrează puternic pe adaptare: un efort major pentru a instrui milioane de lucrători în competențe de bază în domeniul inteligenței artificiale, cu scopul de a face din Marea Britanie un stat care adoptă mai rapid inteligența artificială. Este tensiunea clasică - da, locuri de muncă dispar, da, locuri de muncă apar, nu, nu va fi o situație ușoară la mijloc.

🗞️ Marea Britanie solicită Google să permită site-urilor să renunțe la prezentările generale bazate pe inteligență artificială

Autoritățile de reglementare în domeniul concurenței din Marea Britanie au propus modificări care ar permite editorilor să opteze pentru ca conținutul lor să nu fie utilizat pentru prezentările generale de inteligență artificială ale Google - sau pentru a antrena modele independente de inteligență artificială - fără a fi penalizați în clasamentele normale de căutare. Partea cu „fără a fi penalizați” are un rol important în acest sens.

Ideea este de a reechilibra puterea pe măsură ce rezumatele inteligenței artificiale remodelează modul în care oamenii dau clic (sau nu dau clic). Răspunsul Google a fost practic: comportamentul de căutare se schimbă, luăm în considerare mai multe controale, dar nu trebuie să împărțim produsul într-o versiune stângace fragmentată a sa... ceea ce este corect, dar și convenabil.

🛡️ Păstrarea datelor în siguranță atunci când un agent de inteligență artificială dă clic pe un link

OpenAI a detaliat un risc specific de securitate al agenților: exfiltrarea datelor bazată pe URL-uri - în care un atacator păcălește o inteligență artificială să încarce un URL care încorporează discret informații private în șirul de interogare. Chiar dacă modelul nu „spune” niciodată secretul, solicitarea în sine îl poate divulga. Un risc neplăcut și dezarmant de low-tech.

Atenuarea lor este o regulă simplă cu margini ascuțite: agenții ar trebui să preia automat doar adresele URL care sunt deja publice și despre care se știe că există printr-un index web independent. Dacă un link nu este verificat ca public, sistemul ar trebui să încetinească și să-i redea utilizatorului controlul prin avertismente - frecare deliberată, dar de tip bun.

🇪🇺 Următorul capitol pentru IA în UE

OpenAI a publicat un plan axat pe UE care prezintă o problemă de „excedent de capabilități” - modelele pot face mai mult decât le folosesc în prezent oamenii și companiile, iar acest decalaj riscă câștiguri inegale între țări. Este ca și cum ai deține o mașină de curse și ai merge cu ea doar până la magazinul de la colț... cu excepția faptului că magazinul de la colț reprezintă întreaga ta economie.

Pe lângă retorică, există și elemente concrete: un program care vizează instruirea a mii de IMM-uri europene în domeniul competențelor de inteligență artificială, o subvenție legată de cercetarea siguranței și bunăstării tinerilor și o postură extinsă de „colaborare cu guvernele”. Este parțial un memoriu de politici, parțial o campanie de adopție - și da, toate acestea se contopesc.

🔐 Riscul IA întâlnește guvernanța cibernetică: Proiectul de profil al IA cibernetică al NIST

Un nou profil preliminar al NIST (prin intermediul unei analize dintr-un articol al unei firme de avocatură) se concentrează asupra modului în care organizațiile ar trebui să integreze inteligența artificială în guvernanța cibernetică - atât prin securizarea sistemelor de inteligență artificială, cât și prin utilizarea inteligenței artificiale pentru îmbunătățirea apărării cibernetice. Voluntar pe hârtie, dar „voluntarul” are tendința de a deveni așteptat în timp.

Grupurile de lucru în faza preliminară lucrează pe teme precum securizarea componentelor IA și implementarea apărării bazate pe IA - inclusiv considerații privind lanțul de aprovizionare și automatizare de tip agenți în fluxurile de lucru de răspuns. Ideea este: tratați IA atât ca o nouă suprafață de atac, cât și ca un nou set de instrumente și nu pretindeți că acestea se anulează reciproc.

FAQ

Ce este AlphaGenome-ul DeepMind și ce problemă încearcă să rezolve?

AlphaGenome este un sistem de inteligență artificială despre care DeepMind susține că poate prezice cum mutațiile ADN-ului afectează reglarea genelor - când genele se activează, unde se întâmplă acest lucru și cât de puternic. Este conceput pentru a scana simultan porțiuni foarte mari de ADN, inclusiv regiunile necodificatoare care sunt notoriu de greu de interpretat. Scopul este de a ajuta cercetătorii să identifice ce mutații sunt cel mai probabil să determine boli, astfel încât testele de laborator să se poată concentra pe cele mai promițătoare piste.

Cum ar putea AlphaGenome să ajute cercetătorii să găsească mai rapid factorii genetici ai bolilor?

În multe fluxuri de lucru din domeniul geneticii, blocajul provine din reducerea listelor uriașe de variante la doar câteva variante care modifică în mod plauzibil activitatea genelor. Promisiunea AlphaGenome este de a reduce aceste incertitudini prin prognozarea modului în care anumite mutații ar putea modifica reglarea pe secvențe lungi de ADN. Dacă aceste predicții se mențin, echipele pot prioritiza experimentele în jurul variantelor cel mai probabil legate de riscul de cancer sau de afecțiuni moștenite complexe, petrecând mai puțin timp în impasuri.

Va costa adoptarea inteligenței artificiale locuri de muncă în Marea Britanie și care roluri sunt cele mai expuse riscului?

Secretarul pentru tehnologie al Regatului Unit, Liz Kendall, a declarat că adoptarea inteligenței artificiale va cauza pierderi de locuri de muncă și a subliniat anxietatea legată de rolurile pentru admiterea la studii postuniversitare. Ea a indicat în special domenii precum dreptul și finanțele, unde sarcinile de la începutul carierei ar putea fi mai automatizabile. În același timp, guvernul pune accent pe adaptare prin formare la scară largă în domeniul competențelor de bază în domeniul inteligenței artificiale, recunoscând că tranziția ar putea părea inegală chiar dacă apar noi roluri.

Pot editorii din Marea Britanie să renunțe la Prezentările generale bazate pe inteligență artificială de la Google fără a pierde clasamentele în căutări?

Autoritățile de reglementare în domeniul concurenței din Marea Britanie au propus modificări care ar permite editorilor să opteze pentru ca conținutul lor să nu fie utilizat pentru prezentările generale de inteligență artificială ale Google - sau pentru a antrena modele de inteligență artificială independente - fără a fi penalizați în clasamentele standard ale căutărilor. Scopul este de a reechilibra puterea pe măsură ce rezumatele de inteligență artificială modifică comportamentul de clic. Google a semnalat că are în vedere mai multe controale, avertizând totodată împotriva unei experiențe de căutare fragmentate.

Cum poate un agent de inteligență artificială să scurgă date private doar dând clic pe un link?

OpenAI a descris un risc de exfiltrare a datelor bazat pe URL-uri, în care un atacator solicită unui agent AI să preia un link care încorporează în mod discret informații sensibile în șirul de interogare. Chiar dacă modelul nu repetă niciodată secretul în rezultatul său, solicitarea în sine îl poate transmite. O atenuare comună este adăugarea de „fricțiuni deliberate”, cum ar fi avertismente și solicitarea confirmării utilizatorului atunci când un link nu este verificat independent ca fiind public.

Care este profilul de inteligență artificială cibernetică elaborat de NIST și cum schimbă acesta guvernanța cibernetică?

Un profil NIST preliminar (discutat prin intermediul unei analize juridice) prezintă IA atât ca ceva de securizat, cât și ca ceva de utilizat în apărarea cibernetică. Acesta grupează activitățile în teme precum securizarea componentelor IA, abordarea riscurilor din lanțul de aprovizionare și implementarea apărării bazate pe IA - inclusiv fluxuri de lucru de răspuns mai automatizate, asemănătoare agenților. Deși voluntare ca nume, astfel de cadre devin adesea așteptări de facto, împingând organizațiile să integreze oficial IA în guvernanță și controale.

Știri despre inteligența artificială de ieri: 27 ianuarie 2026

Găsește cea mai recentă tehnologie AI în Magazinul oficial de asistenți AI

Despre noi

Înapoi la blog