Alphabet Inc Google je u utorak objavio nove detalje o superkompjuterima koje koristi za obuku svojih modela veštačke inteligencije, rekavši da su sistemi i brži i energetski efikasniji od uporedivih sistema kompanije Nvidia Corp.
Google je dizajnirao sopstveni prilagođeni čip nazvan Tensor Processing Unit, ili TPU. Koristi te čipove za više od 90% rada kompanije na obuci veštačke inteligencije, procesu unošenja podataka kroz modele kako bi bili korisni u zadacima kao što su odgovaranje na upite sa tekstom poput čoveka ili generisanje slika.
Google TPU je sada u svojoj četvrtoj generaciji. Google je u utorak objavio naučni rad koji opisuje kako je spojio više od 4.000 čipova u superkompjuter koristeći sopstvene prilagođene optičke prekidače za pomoć u povezivanju pojedinačnih mašina.
Poboljšanje ovih veza postalo je ključna tačka takmičenja među kompanijama koje grade superkompjutere sa veštačkom inteligencijom jer su veliki jezički modeli koji pokreću tehnologije kao što su Google Bard ili OpenAI ChatGPT eksplodirali u veličini, što znači da su preveliki za upotrebu na sistemima sa jednim čipom.
Umesto toga, modeli moraju biti raspoređeni na hiljade čipova, koji zatim rade zajedno nedeljama ili duže kako bi uspešno obavili obuku modela. Google-ov PaLM model – njegov najveći javno objavljeni jezički model do sada – obučen je tako što je raspodeljen na 4.000 čipova u okviru njihovog superkompjutera i treniran tokom 50 dana.
Google je objavio da njegov super-računar tokom rada može jednostavno da preuredi veze između čipova, bez zaustavljanja, pomažući da se izbegnu uobičajeni problemi koji dovode do smanjenja performansi i produženju vremena obuke.
„Mogućnost izmene konfiguracije sistema olakšava zaobilaženje neispravnih komponenti“, napisao je Google Fellow Norm Joupi i Google istaknuti inženjer Dejvid Paterson u članku na blogu o sistemu. „Ova fleksibilnost nam čak omogućava da promenimo topologiju međusobnog povezivanja superkompjutera da bismo ubrzali performanse modela ML (mašinskog učenja)“.
Dok Google tek sada objavljuje detalje o svom superkompjuteru, on je na mreži unutar kompanije od 2020. u data centru u okrugu Mejs, Oklahoma. Google je rekao da je startap Midjournei koristio njihov sistem za obuku svog modela, koji generiše sveže slike nakon što mu se doda nekoliko reči teksta.
U radu, Google je rekao da je za sisteme uporedive veličine njegov superkompjuter do 1,7 puta brži i 1,9 puta energetski efikasniji od sistema zasnovanog na Nvidijinom A100 čipu koji je bio na tržištu u isto vreme kada i TPU četvrte generacije.
Portparol Nvidije je odbio da komentariše.
Google je saopštio da nije uporedio svoju četvrtu generaciju sa Nvidijinim trenutnim vodećim čipom H100 jer je H100 došao na tržište nakon Google-ovog čipa i napravljen je novijom tehnologijom.
Google je nagovestio da možda radi na novom TPU-u koji će se takmičiti sa Nvidia H100, ali nije naveo detalje, a Joupi je rekao Rojtersu da Google ima „zdrav cevovod budućih čipova“.