„ …a szuperszámítógép a világ megismerésének új ablaka” – interjú Kapás Kornél HPC-ösztöndíjas PhD hallgatóval


Hogyan mutatná be magát, mi a kutatási területe?

Elméleti részecskefizikával foglalkozom. Már az egyetemi tanulmányaim során specializálódtam erre a területre. Először, alapszakon kísérleti munkáim voltak, foglalkoztam például detektorfejlesztéssel, de mesterszakon átváltottam az elméleti irányra.

Miért váltott elméleti területre?

Amikor a detektorok fejlesztésével foglalkoztam, már akkor is nagyon érdekelt a programozás, szoftverfejlesztés. Ez igazából minden fizikai kutatáshoz szükséges. BSc után témát kerestem, bedolgoztam ide-oda, akkor találtam rá a jelenlegi kutatócsoportomra, ahol kifejezetten nagy szerepet töltött be a kódolás, párhuzamosított programozás. Abban az értelemben nem tisztán elméleti terület, hogy új modelleket alkotunk. A részecskefizikának azzal a részével foglalkozom, ahol van egy már létező modell, és abból számolunk ki olyan dolgokat, amelyeket korábban nem lehetett a megfelelő informatikai eszközök nélkül.

Hogyan találkozott a szuperszámítástechnikával?

A jelenlegi témavezetőmnek, Dr. Katz Sándornak van egy kutatócsoportja és egy szuperszámítógépe. Nekem az a hat évvel ezelőtti volt az első alkalom, hogy láttam élőben szuperszámítógépet.

Szerepelt a tanulmányaiban korábban a HPC?

Volt párhuzamos programozásról szóló kurzusom, de nem HPC szinten. Inkább arról szólt, hogy GPU-ra hogyan írunk programokat, de az is csak választható tantárgy volt az én szakirányomon. Amikor csatlakoztam a kutatócsoportomhoz, akkor ismertem meg a szuperszámítástechnikát.

Miért ilyen későn került kapcsoltba a szuperszámítógépekkel?

A fizikának van néhány ága, ahol mindenképp kell a HPC, de van olyan is, ahol nem feltétlenül, bár ez folyamatosan változik. Ahol Monte Carlo szimulációkat használnak, mint mi is, ott szükség van rá. Vannak asztrofizikus ismerőseim, akik mesterszak után kikerültek egy kollaborációhoz, ahol használnak HPC-t, és csak ott ismerték meg a technológiát. A HPC-ket más területeken is intenzíven használják, ilyen a hálózatkutatás vagy a neurális hálózatok, de ott is csak akkor találkoznak vele a diákok tipikusan, amikor bekerülnek egy kutatócsoportba. Én 10 éve kezdtem, lehet, hogy ma már más a helyzet.

Hogyan hasznosítható a HPC az Ön szakterületén?

Vannak részecskefizikai modelljeink, amiket mindkét oldalról meg kell támasztani. A proton és a neutron tömege egy ideje ki van mérve, de nem volt egyértelmű, hogy a részecskefizikai Standard Modellből hogyan lehet kiszámolni például a proton tömegét. Megvoltak a képletek, de a szuperszámítógépek előtt lehetetlen volt megoldani ezt a feladatot, mert a megoldandó egyenletek rendkívül komplikáltak. Létezik egy formalizmus, amivel az amúgy végtelen dimenziós integrálból egy véges, de nagyon sok dimenziós integrállá tudjuk redukálni az egyenleteket. Ez a rácstérelmélet. Ez röviden azt takarja, hogy a folytonos téridőt diszkrét rácspontokon értelmezzük, majd fokozatosan azokat fokozatosan sűrítjük, és végül megkapjuk a folytonos téridőre vonatkozó eredményt. Ez technikailag nehéz eljárás, több tízmilliós integrálokat kell elvégezni, ami hagyományos számítógépen, pláne papíron lehetetlen. Ehhez kellenek a Monte Carlo szimulációk, de azon belül is jól kell optimalizálni, hogy véges időn belül be lehessen fejezni a számításokat. Ez szuperszámítógép nélkül egyértelműen lehetetlen.

Hadron és kvark-gluon plazma

Új eljárást tett lehetővé a szuperszámítógép?

1974-ben robbant be az a formalizmus, amit használok, tehát alapvetően régi elmélet,. V viszont igazán hatékony és izgalmas számítások csak a 2000-es évek elején, a komolyabb HPC-k megjelenésével váltak lehetségessé. A részecskefizikai Standard Modell, ami leírja az elemi részecskék viselkedését, az előző évszázad második felében született. De csak sejtések voltak azzal kapcsolatban, hogy ha egy proton, neutron vagy atommag ilyenekből épül fel, milyen tulajdonságai lesznek, kiszámolni nem lehetett. Egyszerűbb modellekben persze ki lehetett számolni ezt-azt, de a valós részecskefizikai mennyiségeket nem minden esetben. Általában a tudomány úgy működik, hogy megalkotnak egy modellt, kiszámolnak belőle dolgokat, majd kísérletileg ellenőrzik. Az én munkám a Standard Modell bizonyos részeinek vizsgálata, hogy elméletileg visszaadja-e azokat a mennyiségeket, amiket már kísérletileg kimértünk. Ha ilyen módon validálunk egy modellt, akkor persze annak jósolnia is kell tudnia, amit aztán kísérletileg ellenőrizhetünk.

Mi a modell célja?

Leegyszerűsítve; három kvark tesz ki egy protont vagy neutront, és ezek a kvarkok mindig hármasával vagy kettesével szeretnek lenni. De nagyon magas hőmérsékleten vagy szélsőséges magas nyomáson ez szét tud folyni kvark-gluon plazmává. Ezt tudjuk kísérletekből, hogy megtörténik. Azt, hogy ez milyen hőmérsékleten történik, milyen a fázisátalakulás rendje, sebessége, elvileg ki lehet számolni a Standard Modellből. Ez nagyon bonyolult feladat, lehetetlen volt kiszámolni valós fizikára, egészen 20 évvel ezelőttig.

Konkrét elemeket vizsgál ezzel a módszerrel?

Van hatféle kvarkunk, legalábbis ezt gondoljuk. Ebből tipikusan a három legkönnyebb fordul elő a leggyakrabban. A modell, amit vizsgálok, az ezt a három kvarkot tartalmazó anyag viselkedésére fókuszál. Az a kérdés, hogy ezekből a hadronok, tehát két vagy három kvarkból álló részecskék mikor, milyen gyorsan alakulnak át kvark-gluon plazmává. Tehát sok részecskét tartalmazó rendszerek ilyenfajta fázisátalakulásainak tulajdonságaival foglalkozom.

A szuperszámítógép új dimenziót nyitott a szakterületén?

Mindenképp nagyot lendített rajta. A rácstérelmélet 1974 óta létezik, de nagyon egyszerű modellekkel számoltak. Volt pár elképzelés, hogy a valós fizikában milyen eredmények lennének, de csak amikor megjelentek a szuperszámítógépek, főleg a grafikuskártya-klaszterek, akkor lehetett először kiszámolni egy valós részecske, mint például a proton tömegét és egyéb tulajdonságait. Ez egyezett a kísérleti eredményekkel, így validálta a Standard Modellt, és nagyon sok publikáció is született. Én már a módszer kiforrottabb időszakába érkeztem, de van még jó pár izgalmas dolog, amit meg lehet vizsgálni.

Mit lehet tudni a pályázatában szereplő projektről?

Kicsit messzebbről kezdem. Amikor elkezdtem a doktorit, konkrétan ki kellett számolnom egy bizonyos fizikai mennyiséget a fázisdiagrammal kapcsolatban. Ezt számolták már korábban, de finomabb rácson, főleg kontinuum határesetben nincsenek eredményeink. Viszont, mindenfajta Monte Carlo szimulációban előjön két hiba, az előjelprobléma és az átfedési probléma. Ha növelem a rendszer térfogatát, a problémák súlyossága is exponenciálisan növekszik, növelve ezzel a mennyiségeket terhelő hibákat. Az előjelproblémát jól lehet mérni, de az átfedési problémát nem biztos, hogy egyből fel lehet ismerni. Kiderült, hogy a konkrét esetekben ezek annyira súlyosak, hogy a statisztika megsokszorozásával sem lehet megoldani. Korábban már találtunk egy módszert, ami után már csak az előjelprobléma maradt az egyetlen akadályozó tényező, azt viszont nem lehet megkerülni. Erre e a megoldást keresve tavaly egy játékmodellen kipróbáltunk egy módszert, ami ugyan nem tűüntetni el, de enyhíti az előjelproblémát. Ennek a játékmodellnek egy nagyságrenddel bonyolultabb verzióját vizsgáltam a pályázatban is szereplő projekt keretein belül.

Sikerült elérni a kitűzött célokat?

Igen. Sikerült úgy megtervezni a projektem, hogy elterveztem, hogy pontosan mikor mit csinálok, milyen eredményt várok, és valóban ki is jött minden, amit vártam. Volt, ami a vártnál is hamarabb, ezért plusz egy-két dolgot is kiszámoltam. Az eredmények nagyon biztatóak, ezért remélem, hogy egy magas impaktfaktorú újságban is tudom majd publikálni.

Okozott meglepetést a KIFÜ szuperszámítógépe?

Igen. Nálunk másképp megy a job management, kevés ember használja a gépeket, ezért szóban osztjuk el a hozzáféréseket, sokszor gépenként. Ez kis csoportban teljesen működőképes dolog. A KIFÜ gépeit sokkal többen használhatják, ezért szükség van valamilyen feladatkezelőre. Így elindítok, mondjuk 300 jobot, és onnan kezdve automatikusan zajlik minden. Nekem ez nagyon tetszett, sokkal kényelmesebb és sokkal kevesebb a hibalehetőség.

Kvantum-színdinamika rácson

Mennyire tartja kihívásnak a szuperszámítógép használatát?

Attól függ, hogy alapból milyen szinten van az ember, de aki ezt élvezi, az gyorsan beletanul.

Mi kell a hatékony alkalmazáshoz?

Kíváncsiság és elhatározás. Én pusztán szórakozásból felmegyek néha az NVIDIA honlapjára és megnézem, milyen új architektúrák jöttek ki, hogyan működnek, hogyan lehet egy publikus tutorial szerint olyan programot írni, amivel a leghatékonyabb lesz a kód az adott kártyára. Nyilván az sokat segít, ha ez szórakoztatja az embert.

Kinek ajánlaná a szuperszámítógépet?

Bárkinek, aki valamilyen komplex rendszerrel foglalkozik, és ott nagyon jól párhuzamosíthatóak az algoritmusok. A Monte Carlo szimulációk általában amúgy egy gépen is lefuthatnának, de években telne. Több gépen hamarabb összegyűlik a megfelelő Monte Carlo statisztika. Ahogy telik-múlik az idő, egyre többen fogják azt mondani, hogy szükségük van HPC-re. Bár a mi területünkön 20 éve használatosak, nemsokára mindenhol ez lesz az uralkodó. Amit papíron vagy számítógépen ki lehet számolni, az ki van számolva, a szuperszámítógép a világ megismerésének új ablaka. Ahogy a számítógép, úgy fog elterjedni a szuperszámítógép is mindenhol, lépünk egy szintet.

Hogyan látja a szuperszámítástechnika jövőjét?

A Moore-törvény közismert, de most már körülbelül pár tíz atom széles a chipek csíkszélessége, nem igazán tudjuk tovább csökkenteni a méreteket. Az is kezd beszaturálni, hogy milyen gyors egy CPU, mert ha növeljük a teljesítményét, annyira felforrósodik, hogy a hűtése megoldhatatlan lesz. A chipek méretének csökkentése, és a kapacitásuk növelése tehát nagy valószínűséggel nem folytatható, ezért a kapacitások drasztikus növelésére a szuperszámítógép a megoldás.