Elono Masko dirbtinio intelekto projektas Grok — pats atviriausias ir provokuojantiausias AI asistentų rinkoje — atsidūrė teisinio spaudimo epicentre. Kaltinimai: modelis skleidžia klaidingą informaciją, o jo kūrėjai vengia aiškaus reguliavimo. Ginčas atveria daug platesnį klausimą: kas atsako, kai AI meluoja?

„Grok nėra paprastas pokalbių robotas. Tai platforma, turinti milijonus vartotojų ir realią įtaką viešajam diskursui." — ieškovų advokatai

Kas yra Grok ir kodėl jis kitoks

Grok — tai xAI kompanijos (dabar priklausančios SpaceX) sukurtas didelių kalbos modelis, integruotas į platformą X (buvęs Twitter). Skirtingai nuo OpenAI ar Anthropic produktų, Grok nuo pat pradžių buvo pozicionuotas kaip „nesuvaržytas" — atsakantis į klausimus, kurių kiti AI atsisako nagrinėti. Tai patraukė milijonus vartotojų. Bet tai taip pat atvėrė spragą: modelis generuoja teiginius, kurie kartais tiesiog neatitinka tikrovės.

Problema ne nauja — visi didieji kalbos modeliai „haliucinuoja", tai yra, kuria tikroviškai skambančius, bet melagingus teiginius. Tačiau Grok atveju ginčas apima ir kito pobūdžio kaltinimus: ieškovai tvirtina, kad dezinformacija buvo skleidžiama ne atsitiktinai, o modelio mokymo duomenys buvo formuojami tendencingai.

Teismo esmė: atsakomybė

Centrinė problema — kas atsako už AI padarytą žalą. Tradiciniuose teisiniuose ginčuose atsakomybė tenka aiškiam subjektui: gamintojui, leidėjui, paslaugos teikėjui. AI pakeičia šį modelį. Grok generuoja turinį, kuris nebuvo tiesiogiai parašytas jokio žmogaus — jis yra statistinių skaičiavimų rezultatas.

JAV teismai iki šiol nesuformavo vienodų taisyklių šioje srityje. Europoje padėtis aiškesnė: ES Dirbtinio intelekto aktas, įsigaliojantis 2026 metais, nustato, kad aukštos rizikos AI sistemų kūrėjai privalo užtikrinti jų patikimumą ir prisiimti atsakomybę už žalą. Tačiau Grok veikia pirmiausia JAV rinkoje — kur tokio reguliavimo kol kas nėra.

Masko pozicija

Maskas niekada neslėpė, kad Grok kurtas kaip alternatyva „cenzūruotiems" AI modeliams. Jo logika: laisvė kalbėti svarbiau nei saugumas. Tačiau ši filosofija susiduria su realybe — laisvė generuoti bet kokį turinį reiškia ir laisvę generuoti klaidingą. Ir kai tokia informacija pasiekia dešimtis milijonų žmonių per X platformą, jos poveikis tampa nebeakademinis.

Šis teismo procesas — tik vienas iš daugelio, kuriuos šiuo metu AI kompanijos sprendžia visame pasaulyje. Jų baigtis formuos precedentą: ar AI yra tik įrankis, kuris neatsako už savo rezultatus, ar jis — produktas, už kurį kūrėjas privalo prisiimti atsakomybę kaip už bet kurį kitą paslaugą.

Atsakymo dar nėra. Bet teismai jau dirba.