Elono Masko dirbtinio intelekto projektas Grok — pats atviriausias ir provokuojantiausias AI asistentų rinkoje — atsidūrė teisinio spaudimo epicentre. Kaltinimai: modelis skleidžia klaidingą informaciją, o jo kūrėjai vengia aiškaus reguliavimo. Ginčas atveria daug platesnį klausimą: kas atsako, kai AI meluoja?
Kas yra Grok ir kodėl jis kitoks
Grok — tai xAI kompanijos (dabar priklausančios SpaceX) sukurtas didelių kalbos modelis, integruotas į platformą X (buvęs Twitter). Skirtingai nuo OpenAI ar Anthropic produktų, Grok nuo pat pradžių buvo pozicionuotas kaip „nesuvaržytas" — atsakantis į klausimus, kurių kiti AI atsisako nagrinėti. Tai patraukė milijonus vartotojų. Bet tai taip pat atvėrė spragą: modelis generuoja teiginius, kurie kartais tiesiog neatitinka tikrovės.
Problema ne nauja — visi didieji kalbos modeliai „haliucinuoja", tai yra, kuria tikroviškai skambančius, bet melagingus teiginius. Tačiau Grok atveju ginčas apima ir kito pobūdžio kaltinimus: ieškovai tvirtina, kad dezinformacija buvo skleidžiama ne atsitiktinai, o modelio mokymo duomenys buvo formuojami tendencingai.
Teismo esmė: atsakomybė
Centrinė problema — kas atsako už AI padarytą žalą. Tradiciniuose teisiniuose ginčuose atsakomybė tenka aiškiam subjektui: gamintojui, leidėjui, paslaugos teikėjui. AI pakeičia šį modelį. Grok generuoja turinį, kuris nebuvo tiesiogiai parašytas jokio žmogaus — jis yra statistinių skaičiavimų rezultatas.
JAV teismai iki šiol nesuformavo vienodų taisyklių šioje srityje. Europoje padėtis aiškesnė: ES Dirbtinio intelekto aktas, įsigaliojantis 2026 metais, nustato, kad aukštos rizikos AI sistemų kūrėjai privalo užtikrinti jų patikimumą ir prisiimti atsakomybę už žalą. Tačiau Grok veikia pirmiausia JAV rinkoje — kur tokio reguliavimo kol kas nėra.
Masko pozicija
Maskas niekada neslėpė, kad Grok kurtas kaip alternatyva „cenzūruotiems" AI modeliams. Jo logika: laisvė kalbėti svarbiau nei saugumas. Tačiau ši filosofija susiduria su realybe — laisvė generuoti bet kokį turinį reiškia ir laisvę generuoti klaidingą. Ir kai tokia informacija pasiekia dešimtis milijonų žmonių per X platformą, jos poveikis tampa nebeakademinis.
Šis teismo procesas — tik vienas iš daugelio, kuriuos šiuo metu AI kompanijos sprendžia visame pasaulyje. Jų baigtis formuos precedentą: ar AI yra tik įrankis, kuris neatsako už savo rezultatus, ar jis — produktas, už kurį kūrėjas privalo prisiimti atsakomybę kaip už bet kurį kitą paslaugą.
Atsakymo dar nėra. Bet teismai jau dirba.