Petróczi Rafael

Petróczi Rafael

A Startup Online vezető újságírója, szerkesztője. Pályáját közéleti újságíróként kezdte az Azonnali hírportálnál, majd az egykori Express Innovation Agency-ben merült el a startupok világában. Lenyűgözőnek tartja le a szféra színességét és merész, kockázatvállaló magatartását. A két világ között mozogva kamatoztatja újságírói tapasztalatát és a startup-ökoszisztémáról megszerzett tudását.

Rovat: Hot topic

Léphetett a Meta az új kihívója, a DeepSeek megjelenésére?

Léphetett a Meta az új kihívója, a DeepSeek megjelenésére?
#USA #ChatGPT #OpenAI #Meta #DeepSeek #AI #Kína #Llama #Marck Zuckerberg #mesterséges intelligencia #R1
A Mark Zuckerberg nevével fémjelzett Meta olyan dokumentumot adott ki, ami ki nem mondva is demonstrálja: az általuk fejlesztett mesterséges intelligencia biztonságosabb, mint a kínai DeepSeek megoldásai.

Eléggé felforgatta a startupvilágot a kínai DeepSeek R1 nevű, nyílt forráskódú, nagy nyelvi modelljének januári megjelenése a piacon, ami az OpenAI o1 modelljéhez hasonló teljesítményt ér el a matematikai, kódolási és következtetési feladatokban. Mindezt úgy, hogy a megszokott dollárszázmilliók helyett mindössze 6 millió dollárt kellett költeni az R1 betanítására – az alacsony összeg oka pedig a modellhez használt chipek alacsony számában keresendő.

A DeepSeek debütálása ezért alapjaiban kérdőjelezte meg az olyan szereplők, mint az OpenAI, az Antrophic, a Meta vagy a Mistral AI magas befektetéseit és cégértékeléseit. Erről bővebben ebben a cikkünkben írtunk.

A kínai vetélytárs felfutása után alig egy héttel a Mark Zuckerberg nevével fémjelzett és a Llama nevű alapmodelljével az AI-versenybe benevezett Meta kiadott egy dokumentumot Frontier AI Framework (Élvonalbeli AI keretrendszer) néven,

amellyel a cég azt üzenhette a felhasználóknak: bennünk bízhattok, ellentétben a DeepSeekkel.

Igaz, Zuckerberég már tavaly megígérték, hogy ezzel a dokumentummal előrukkolnak a 2025. február 10-11-i, franciaországi AI Action Summitra, szóval kijelenteni nem lehet, hogy a keretrendszer publikálásával a Meta a DeepSeek felemelkedésére reagált.

Hogyan szabályozza a Meta a saját AI-fejlesztéseit?

A keretrendszerrel az amerikai cég tulajdonképpen arra a félelemre ad választ, amire az európai uniós döntéshozók is igyekeztek a tavaly elfogadott AI Act-tel:

hogyan akadályozzuk meg a mesterséges intelligencia rossz célokra, például kiber-, vegyi vagy biológiai támadásokra való felhasználását?

A Frontier AI Framework ennek mentén három csoportba sorolja a saját AI-fejlesztéseit:

  • A mérsékelt kockázatú modellekkel nem lehet jelentős előrelépést tenni az AI rossz célú felhasználása felé, így azokat – a modell kiadásakor meghatározott biztonsági intézkedésekkel – piacra lehet dobni.
  • A magas kockázatú modellekkel jelentős előrelépést lehet tenni egy fenyegető esemény felé, azaz: potenciálisan nagy segítség lehet egy kiber-, vegyi vagy biológiai támadás végrehajtására, de önmagában a modell felhasználása kevés ennek bekövetkeztéhez. Ezeket a modelleket a Meta nem fogja kiadni, helyette a hozzáférést – a hackertámadások és a modell kiszivárgását megakadályozó intézkedések mellett – egy kutatócsoportra korlátozza, akiknek a feladata a modell mérsékelt kockázatúvá fejlesztése lesz.
  • A kritikus kockázatú rendszerek pedig már önmagukban képesek lehetnek – rossz kezekbe kerülve – egy katasztrofális kimenetelű támadást előidézni, és ennek a kockázatát az adott pillanatban nem lehet mérsékelni. Ekkor a Meta teljesen leállítja a modell fejlesztését, és a hozzáférést egy szigorúan szűk szakértői körre korlátozza a megfelelő biztonsági intézkedések mellett. Ezenfelül a modell további lehetséges felhasználási veszélyeit részletesen körüljárja, és megvizsgálja, hogy hogyan lehet a modellt mérsékelt kockázatúvá tenni.
Forrás: Trusted Reviews

Érdekesség, hogy az egyes modellek veszélyszintjét a Meta nem egy kvantitatív mérőszámmal határozza meg, mert szerinte jelenleg a tudomány nem tud adni egy olyan egzakt mérőszámot, amivel tényleg jól meghatározható egy AI-modell veszélyessége. Ehelyett a cég a saját és esetenként külső szakértők segítségével vizsgálja meg, hogy az adott modellt a különböző szereplők mire és hogyan használhatják fel, a megállapított veszélyszintre pedig a felsővezetők mondanak áment.

Hogy jön ide a DeepSeek?

Minderre már csak azért is szükség van a Metánál, mert Zuckerberég a saját AI-megoldásaikat nyíltan elérhetővé teszik, azaz a rendszereik működése átláthatóvá és más célokra történő felhasználásra is alkalmassá válik a felhasználók számára. Ezzel szemben például az OpenAI egy alkalmazásprogramozási interfésszel (API) eltakarja a rendszer működésének belső részleteit, így kontrollálva AI-modelljeik felhasználhatóságát.

Van azonban egy szereplő, aki a Metához hasonlóan nyíltan elérhető modelleket fejleszt, viszont érdemi garanciát nem adott még arról, hogy a megoldásai nem fognak hozzájárulni a felhasználók átveréséhez vagy lebombázásához egy új biológiai fegyverrel: ez a kínai DeepSeek.

A most publikált Frontier AI Framework tehát egyúttal a Meta és a DeepSeek közötti kockázati különbségek hangsúlyozására is alkalmas – mégha az nem is jelenthető ki, hogy ez biztosan szándéka volt a Metának.

NYITÓKÉP: Mark Zuckerberg, a Meta CEO-ja. Forrás: Anthony Quintano / Flickr

Olvasd el ezt is!

Magyar rákdiagnosztikai technológiát vezetnek be Indonéziában

#egészségügy #Orbán Előd #European Life Technologies #Priskin Katalin #rák #onkológia #Indonézia
A European Life Technologies diagnosztikai módszerével akár több mint fél évvel korábban felismerhetővé válnak a daganatos megbetegedések, mint a hagyományos képalkotó vizsgálatokkal – és erre nagy szüksége van egy olyan országnak, ami évente több mint egymillió új rákos megbetegedéssel néz szembe.