Anthropic — viena galingiausių AI kompanijų pasaulyje — padarė tai, ko niekas dar nepadarė: sukūrė naują modelį Claude Mythos, kuris ženkliai lenkia viską, kas šiuo metu prieinama rinkoje, ir nusprendė jo neišleisti visuomenei. Priežastis — ne techninis nepasirengimas, bet saugumo baimė.

„Claude Mythos Preview per kelias savaites aptiko tūkstančius nežinomų pažeidžiamumų kiekvienoje pagrindinėje operacinėje sistemoje ir kiekvienoje pagrindinėje naršyklėje." — Anthropic oficialus pranešimas, 2026 m. balandžio 7 d.

Kas yra Claude Mythos?

Tai Anthropic sukurtas modelis, kuris pasižymi beprecedenčiais kibernetinio saugumo gebėjimais: gali automatiškai identifikuoti ir išnaudoti zero-day pažeidžiamumus — tai yra klaidas programinėje įrangoje, kurių patys kūrėjai dar nežino. Tokia galia rankose nusikaltėlių ar priešiškų valstybių galėtų tapti katastrofa globaliam interneto infrastruktūrai.

Tai pirmas kartas beveik per septynerius AI lenktynių metus, kai pirmaujanti kompanija viešai atsisakė išleisti baigtą modelį dėl saugumo sumetimų — ne dėl techninių kliūčių.

Projektas „Glasswing": kontroliuojamas išleidimas

Vietoj viešo paleidimo Anthropic pasirinko kitą kelią — Project Glasswing: uždara partnerių programa, kurioje Mythos naudojamas rasti ir atskleisti pažeidžiamumus, kol jie pasiekia nusikaltėlių tinklus. Programoje dalyvauja:

Project Glasswing partneriai

  • AWS ir Microsoft — debesų infrastruktūra
  • Apple ir Google — operacinės sistemos ir naršyklės
  • Cisco ir Palo Alto Networks — tinklų saugumas
  • CrowdStrike — grėsmių aptikimas
  • NVIDIA — aparatinė įranga
  • JPMorganChase — finansų sektorius

NSA jau naudoja Mythos — slaptai

Nepaisant oficialių ribojimų, TechCrunch pranešė, kad NSA (JAV Nacionalinė saugumo agentūra) jau naudoja Mythos — neoficialiai, nepaisant esamo Pentagono ir Anthropic ginčo dėl gynybinių AI sutarčių. Tai rodo, kad Mythos galimybės yra tokios unikalios, kad net valstybinės žvalgybos struktūros negali sau leisti laukti.

Kodėl tai svarbu?

Claude Mythos — tai momentas, kai AI pramonė pirmą kartą susidūrė su klausimu, kuris iki šiol buvo tik teorinis: ką daryti, kai technologija tampa per galinga, kad ją išleistum? Anthropic pasirinko savanorišką savikontrolę. Kiti — OpenAI, Google, xAI — kol kas tyli. Ar jie elgsis taip pat, kai jų modeliai pasieks tą patį lygį? Atsakymo dar nėra.