Scurgerea Mythos zguduie piețele de criptomonedă Scurgerea neintenționată a modelului de inteligență artificială cel mai avansat al Anthropic, Claude Mythos, a declanșat repercusiuni imediate în peisajele atât de criptomonedă, cât și de securitate cibernetică.
Scurgerea Mythos zguduie piețele de criptomonedă
Scurgerea neintenționată a modelului de inteligență artificială cel mai avansat al #Anthropic , #ClaudeMythos , a declanșat repercusiuni imediate în peisajele atât de criptomonedă, cât și de securitate cibernetică.
Pe hârtie, intenția lui Anthropic a fost să testeze în liniște Mythos cu clienți selectați cu acces timpuriu, dar divulgarea accidentală a forțat o confruntare publică bruscă cu riscurile sale potențiale.
Impactul nu a fost limitat doar la monedele digitale. Acțiunile de securitate software, cum ar fi #PaloAltoNetworks și #CrowdStrike au scăzut între 4% și 6%, în timp ce ETF-ul iShares Expanded Tech-Software Sector a scăzut cu 2,5%. Aceste cifre reflectă cât de strâns legate sunt progresele AI și securitatea activelor digitale—și cât de repede poate eroda încrederea pieței atunci când apar noi amenințări.
$BTC dropped from $66,899.75 to $66,000 following the news of the leak on Thursday.
Eroarea umană expune riscurile AI și blockchain
Anthropic a atribuit breșa unei erori umane în sistemul său de gestionare a conținutului. Cercetătorii în cibersecuritate au descoperit că nu numai că draftul Mythos era accesibil, ci și mii de alte active interne legate de operațiunile blogului Anthropic. Compania a răspuns prin restricționarea imediată a accesului public după ce a fost contactată de jurnaliști, dar până atunci, daunele erau deja făcute: informații sensibile despre cel mai puternic #AI model al lor au intrat în domeniul public.
Postarea draft avertiza că Mythos ar putea prezenta „riscuri de cibersecuritate fără precedent”, în special pentru securitatea blockchain și auditarea contractelor inteligente.
Conform coindesk.com, documentele interne Anthropic au evidențiat explicit aceste pericole, observând că Mythos a obținut „scoruri dramatic mai mari” decât modelele anterioare în teste care implicau codarea software și cibersecuritate. Această avansare în capacitate este cu două tăișuri: deși oferă noi instrumente pentru apărare, ridică și mizele pentru exploatare dacă un astfel de AI ajunge în mâini malițioase.
Tierul Capybara promite putere nevăzută
Dincolo de Mythos în sine, materialele scurse au menționat un tier de model viitor numit „Capybara”, descris ca fiind mai mare și mai capabil decât gama existentă Opus a Anthropic.
Tierul Capybara nu este încă disponibil pentru utilizare generală și rămâne în testare timpurie cu organizații selectate axate pe apărarea cibersecurității. Etichetat intern ca versiunea doi—în timp ce Mythos este versiunea unu—Capybara semnalează ambiția Anthropic de a duce capacitățile AI și mai departe decât standardele actuale. Cu toate acestea, postarea draft a clarificat că rularea acestor modele este costisitoare și nu este încă viabilă la scară pentru majoritatea utilizatorilor.
De ce este important: Impactul practic asupra securității cripto
Consecințele imediate ale scurgerii au fost resimțite în sferele financiare și tehnice. Pentru deținătorii de criptomonede și dezvoltatorii de blockchain, revelația că un model AI poate identifica și exploata vulnerabilitățile mai eficient decât oricare anterior introduce un nou strat de risc. Auditarea contractelor inteligente—un proces menit să identifice erorile sau backdoor-urile în codul finanțelor descentralizate (DeFi)—poate acum să se confrunte cu provocări pe care uneltele existente nu sunt pregătite să le gestioneze.
Această preocupare nu este teoretică; protocoalele DeFi se confruntă deja cu hack-uri frecvente care duc la pierderi de milioane în fiecare an. Cu Mythos raportat că depășește Opus 4.6 în raționamentul academic și sarcinile de securitate software, unii se tem că atacatorii ar putea folosi o tehnologie similară pentru a automatiza exploatările la scară. Faptul că Anthropic plănuiește doar un lansare timpurie cu acces restricționat subliniază atât promisiunea, cât și pericolul unor astfel de sisteme AI avansate.
Mii de active interne expuse neintenționat
Scara expunerii se remarcă: aproape 3,000 de active nepublicate au fost lăsate deschise din cauza unor controale de acces configurate greșit în sistemele backend ale Anthropic. Această comoară a inclus nu doar detalii despre Mythos, ci și alte materiale sensibile ale companiei. Deși accesul public a fost restricționat imediat după descoperire, rămâne incert exact câte terțe părți ar fi putut accesa sau descărca aceste fișiere înainte de a fi securizate.
O decizie a unui judecător în această săptămână a adăugat un alt strat de complexitate: Judecătoarea Districtuală a SUA Rita Lin a blocat eforturile agențiilor federale de a desemna Anthropic ca un risc de lanț de aprovizionare din cauza refuzului său de a permite supravegherea în masă sau aplicații de război autonom letal pentru modelele sale AI. Bătălia legală implică un contract guvernamental de 200 de milioane de dolari acordat în iulie 2025—și subliniază cum supravegherea regulată se convertește cu riscurile tehnice în exact momentul greșit pentru atât Anthropic, cât și clienții săi.
Ce ar putea conduce următoarea fază
Dacă Anthropic mută Mythos din teste timpurii limitate către o disponibilitate generală mai largă—actualmente nu este încă confirmată din cauza costurilor operaționale ridicate și riscurilor de cibersecuritate declarate—piețele ar putea reacționa imediat având în vedere abilitatea demonstrată a modelului de a depăși Opus 4.6 în codarea software și cibersecuritate, așa cum este evidențiat în documentele interne scurse.