Dr. Hegedűs Tamás az SE Biofizikai és Sugárbiológiai Intézet tudományos főmunkatársa. Témavezető több doktori iskolában (SE Elméleti- és Transzlációs orvostudományok Doktori Iskola, PPKE Roska Tamás Műszaki és Természettudományi Doktori Iskola, ELTE Biológia Doktori Iskola), Magyarország képviselője az Elixír 3D-bioinformatika irányító bizottságában, valamint a Kormányzati Informatikai Fejlesztési Ügynökség HPC-szakértője. Összes tudományos közleményének és alkotásainak független idézettségi száma: 2378. Kutatási területe: a cisztás fibrózist és multidrog-rezisztenciát okozó ABC fehérjék szerkezeti és dinamikai jellemzése, gyógyszercélpontok azonosítása.
www.hegelab.org

 „…mi az adathalmazunkból, fehérjék atomjainak mozgásából egy olyan mozit hozunk létre, ami több 10 ezer képkockából áll.” – interjú dr. Hegedűs Tamás bioinformatikussal, a KIFÜ HPC szakértőjével

Mikor és hogyan ismerte meg a szuperszámítástechnikát?

Szuperszámítógépen akkor dolgoztam először, amikor 2005 és 2009 között posztdoktor voltam Észak-Karolinában, Chapel Hill városában. A szomszédos laborban elméleti kérdésekkel foglalkoztak, egyszer szóba elegyedtem a laborvezetővel, 5 perc múlva már volt is hozzáférésem egy, a top100-ba tartozó géphez. Nem tudtam, hogyan kell használni, de nagyon érdekelt és mindenki segítőkész volt, hamar belejöttem. Sokat segített az is, hogy mindig is érdekelt az informatika. ’92-ben, amikor érettségiztem, a Műegyetemen is gondolkodtam, de akkor úgy éreztem, hogy biológusként foglalkozhatok informatikával is, míg informatikusként nehezebben férek hozzá a biológiához, úgyhogy az utóbbit választottam.

Hogyan lesz a kutató kérdéséből matematikai számítás?

Konkrét példával élve, mi az adathalmazunkból, fehérjék atomjainak a mozgásából egy olyan mozit hozunk létre a szuperszámítógépen, ami körülbelül 10 ezer képkockából áll. Ezután különböző matematikai algoritmusokat alkalmazva próbáljuk megtalálni azokat a képkockákat, amelyeken a fehérje atomjainak a mozgása különleges mértékben és irányban megváltozik. Ezekre a matematikai módszerekre azért van szükség, mert egy átlagos fehérjénk kb. 20 000 atomból épül fel.

Nem válik így dehumanizálttá a tudomány?

Nem, mert az emberi tényező végig fontos szerepet játszik. Az első a felismerés, hogy szuperszámítógépre van szükségem. Ha megvan az eszköz, meg kell tanulnom használni, majd eldönteni, hogy mit akarok kiszámolni. Miután megvan a számolás, a mozi, a matematikai algoritmusok mellett szemmel is megvizsgáljuk egyszerűsített módon a fehérje atomjainak mozgását, mert az emberi agy van olyan különleges, hogy fel tudjon ismeri ilyen bonyolult mozgásokban is valamilyen különleges és fontos mintázatot.

Más szakterületekre is igaz ez a megállapítás?

A kíváncsiság, az egyik legalapvetőbb emberi tulajdonság, a HPC-felhasználók heterogén társaságát is képes egy irányba terelni. Míg a biológus vagy a meteorológus nem informatikus, megvan bennük a motiváció, hogy elmélyüljenek az informatikában, különben nem tudják megoldani az izgalmas problémáikat. Végül sok esetben a megoldás több szakterület kutatóinak összefogásából születik meg.

Mennyire érzékeli a szuperszámítógépek fejlődését?

Mindig is a fehérjék érdekeltek, de amikor kutatni kezdtem, akkor még csak 20 aminosavas fehérjék mozgását lehetett számolni, így maradtam a kísérletes munkánál. Csak az arányok kedvéért, a membránfehérjékben, amelyeket vizsgálunk, van kb. 1500 aminosav. Ez kb. 20 ezer atomot jelent, amit beillesztünk egy lipid kettősrétegbe, ami még több atomot jelent, és mindezt még vízbe is helyezzük, tehát további rengeteg atom lesz jelen a szimulációs rendszerben. 2005-2009 között, a top100-ban levő szuperszámítógép 128 processzorát 3-4 hétig használtuk egy ilyen rendszer 100 nanoszekundum hosszúságú mozgásának kiszámolásához. A León, (2014-ben a TOP500 világranglista 308. helyét megszerző Szilárd Leó munkássága előtt tisztelgő magyar szuperszámítógép, a szerk.), ahol már tudtunk GPU-t használni, 16 CPU-val és 3 GPU-val (kisebb erőforrásokkal és kevesebb elektromos energiával) ugyanilyen számításokat kb. egy hét alatt el tudtunk végezni.

Hogyan kapcsolódott be a magyar szuperszámítógép felhasználók körébe?

Amikor 2009-ben hazatértem Amerikából, szükségessé vált kutatásaimhoz a nemzeti HPC erőforrások használata. Ugyanekkor egy véletlen folytán, egy barátom révén ismerkedtem meg dr. Máray Tamással, aki megteremtette a magyar HPC-t, és aki évtizedeken át felelt a működtetésért. Mivel a program, amit molekuladinamikai számításokhoz használunk, tökéletesen alkalmas a CPU és GPU kapacitások terheléses tesztjére, ezért nekünk már Leó tesztüzeme is izgalmas eredményeket hozott.

Van olyan projektje, eredménye, ami megvalósíthatatlan lett volna szuperszámítógép nélkül?

Szinte az összes. Kicsit pontosabban, a munkám minimum 50%-ához használok szuperszámítógépet. A molekuladinamikai szimulációkat több ismétléssel, hosszan kell futtatni. Ezeket pillanatnyilag főleg Göttingenben, a Max Planck intézet egyik vezető kutatójával, Helmut Grubmüllerrel együttműködve végezzük, mert olyan óriási a kapacitásigényük. Persze, ha meglesz a legújabb magyar szuperszámítógép (a Komondor, a szerk.), az alapjaiban megváltoztatja itthoni lehetőségeinket.

Melyik szuperszámítógépes munkájára a legbüszkébb?

2013-14 körül egy nemzetközi együttműködés keretében azt mutattuk be, hogy egy mutáció hogyan teszi tönkre a CFTR-fehérje szerkezetét és hogy hova kötődnek hozzá egyes gyógyszermolekulák. 

CFTR fehérje: A CFTR (cisztás fibrózis transzmembrán konduktancia regulátor) fehérje hibás működése okozza a cisztás fibrózis néven ismert betegséget, ami légzési és emésztési problémákkal, mirigyek gyulladásával, férfiaknál sterilitással, csecsemőknél bélelzáródással társul.

Partnerünk (Lukács Gergely, McGill University, Montréal) kísérletes módon, de kisebb felbontású információkat nyert ezekről, míg mi a szimulációkkal atomi szinten tudtuk vizsgálni ezeket a folyamatokat. Bemutattuk, hogy az egyik CFTR-mutáció esetén alkalmazott gyógyszer nem hatásos egy másik mutáns esetén, sőt káros is lehet az alkalmazása. Ez jól megvilágítja az alapkutatások fontosságát pl. a személyre szabott terápia megvalósításában is.

Van alternatívája a szuperszámítógépnek? Megoldhatóak ezek a feladatok másképp?

Nincs. A felhőszolgáltatások valamilyen szempontból mindig korlátosak, például az adatvédelmi megoldásaik általában jelentősen rontják a számítási teljesítményt.

Milyen gyorsan lehet megszerezni a szuperszámítógép használatához szükséges ismereteket?

Attól függ, hogy a jelentkező hogyan szeretné használni az eszközt. Ha vannak linuxos alapismeretei és a probléma megoldásához van mások által megírt program, csak azt kell megmutatni neki, hogyan teszi be a feladatot a munkasorba és már futhat is. Ha a programot a forráskódból kell telepíteni, akkor már adódhatnak nehézségek, amiket a program íróinak, a programot használó más kutatóknak, illetve a Kompetencia Központ munkatársainak segítségével relatíve könnyen át lehet hidalni. Ha már egyedi programot kell írni, akkor meg kell tanulnia, hogyan kell párhuzamosítani. Ez a programozói háttértől és a probléma összetettségétől függően évekbe is telhet.

Megtanulható a szuperszámítógép használata leírásokból, tutorial videókból?

Megfelelő linuxos háttérrel egy tutorial video segítségével egy nap alatt is elsajátíthatóak az alapok, de a szuperszámítástechnika szükségszerűen közösségi műfaj. Kevés az erőforrás és drága, muszáj kooperálni, hogy az eszközök kihasználtsága megközelítse a maximumot. Ehhez pedig az is kell, hogy minden felhasználó a lehető leghatékonyabb legyen.

Ön kihez fordulhat, ha esetleg kérdése van?

Elsősorban a Kompetencia Központ munkatársaihoz - hiszen 2022-ig én is szakértőként dolgozhatok náluk -, illetve rajtuk kívül még a Barnaföldi Gergely által vezetett Wigner (Wigner Fizikai Kutatóközpont, a szerk.) GPU laboratóriumában dolgozó fizikusoktól szoktam sok segítséget kapni.

Van közösségteremtő ereje a konzultációknak, kapcsolatban maradnak a közös munka után is?

Vannak spontán kialakult, lazán kapcsolódó, nem is szerveződő mikroközösségek. De szuperszámítógépet használó kutatók elméleti kutatások köré szerveződött közösségekben is megtalálhatók. Ilyen a Magyar Bioinformatikai Társaság vagy az MKE QSAR és Modellezési Szakcsoportja és az MTA SZAB Kemometria és Molekulamodellezés Munkabizottsága. Ez egy kémiai számításokkal foglalkozó közösség, akik általában májusban rendezik a KeMoMo–QSAR szimpóziumot, de idén a járvány miatt most szeptember végén találkozunk Szegeden. (A CheMicro vezetőjének, Lopata Antalnak elévülhetetlen érdemei vannak abban, hogy bizonyos kémiai programcsomagok itthon is elérhetőek és az új HPC-re is telepítésre kerülnek, a szerk.). Mindenképp hasznosnak tartok a HPC-közösség számára egy alulról, a felhasználók által szerveződő online felületet is, amelynek megalkotása folyamatban van, remélem, rövidesen élesben is elérhető lesz.

Milyen elvárásai vannak a Kompetencia Központtal kapcsolatban, hogyan rangsorolná a feladatait?

Abban bízom, hogy a Kompetencia Központ gyorsítani fogja a tanulási, hozzáférési, problémamegoldási folyamatokat, hogy a HPC-t igénylő kutatások sokkal gördülékenyebben haladjanak. Egy kutató nem várhat hetekig, hónapokig a lehetőségre és az eredményekre! A nemzetközi példák is az bizonyítják, hogy a gyors és egyszerű ügymenet elengedhetetlen ahhoz, hogy a szolgáltatás színvonalas legyen. Ehhez a jelenleginél sokkal több szakemberre lenne szükség, ráadásul nem pusztán jó, hanem kiváló szakemberek kellenek a kapacitások kihasználásához, a versenyképesség fenntartásához. Ezen a téren is már van előrelépés, a piaci realitásokhoz igazodó PhD-ösztöndíjak kiváló alapot jelentenek az ígéretes karrierekhez, ezek folytonosságának biztosítása kulcsfontosságú. Emellett azonban arra is fontos figyelmet fordítani, hogy a PhD megszerzése utáni csökkent mértékű bevétel demotiváló lehet. Azaz, a kiváló szakemberek megtartásában fontos szerepe lenne a versenyképes fizetések biztosításának is.

Milyen tudományterületeken tartaná fontosnak a szuperszámítógépes alapismeretek integrálását a tananyagba?

A természet- és műszaki tudományok terén mindenképp, mert a mesterséges intelligencia és a deep learning be fog robbanni.

Deep learning: A deep learning (mélytanulás) az adatokra vonatkozó alapvető paraméterek felhasználásával megtanítja a számítógépet mintázatok felismerésére; legyen szó beszédről, képekről, tárgyakról, jelenségekről. Ezek a gépi tanuló algoritmusok már a mindennapokban is jelen vannak, az internezőknek például termékeket, tartalmakat, avagy a közösségi médiában potenciális új ismerősöket ajánlanak.

Bár többen úgy gondolják, hogy már berobbant, véleményem szerint még csak olyan változások küszöbén állunk, amelyek alapjaiban írnak át mindent, amit most a tudományos munkáról gondolunk. Területem évtizedes problémáját gyakorlatilag most oldotta meg egy cég, mélytanulásos módszerrel, akadémiai szférában elképzelhetetlen nagy HPC-kapacitást használva. Ezek és más típusú futások is – még komoly optimalizáció mellett is – igen erőforrásigényesek, de saját szakterületemen kívül a járványügyi és az új generációs szekvenálásokat végző szakemberek vagy a meteorológusok se nélkülözhetik a szuperszámítógépes felhasználói ismereteket.

Tekinthető a szuperszámítógép egyfajta „bölcsek kövének”, ami minden tudományterület számára hasznos, vagy csak egy praktikus eszköz, mint a kréta?

Inkább svájci bicska. Sok mindenre jó, értő kezekben. Ráadásul egyre több területen lehet használni és hihetetlenül gyorsan fejlődik a kapcsolódó hardver is. Emiatt gyors az elévülés is, ezért a következő utáni gépet már érdemes akkor elkezdeni tervezni, amikor a legújabb beüzemelése még meg sem történt.

Volt esetleg példa arra, hogy egy teljesen más tudományterületet képviselő felhasználó akaratlanul inspirálta?

Alapvetően a természettudományok képviselőivel kerülök kapcsolatba. Ők jellemzően biológusok, bioinformatikusok, fizikusok, kémikusok, nagyon gyakran interdiszciplináris területekről. A már említett Wigner GPU laboratórium rendszeresen szokott szervezni konferenciákat, workshopokat, tanfolyamokat, ahol a meghívottak köre kivételesen heterogén, nagyobb cégektől is jönnek, ezért tudok én is többet a mélytanulás aktualitásairól. Idén a GPU napokat egybekötik mesterséges intelligencia alapkutatás – ipar összepárosítási eseménnyel. De arra is volt példa, hogy egy félreértés miatt nem a megfelelő felhasználói csoportba kerültem, aminek a vezetőjével, Paragi Gáborral (Szegedi Tudományegyetem) emiatt még közös cikkünk is lett.

Mi kell ahhoz, hogy valaki hatékony szuperszámítógép-felhasználó legyen?

Tapasztalat. Meg lehet tanulni az alapokat, vannak rutinszámítások, de kell a gyakorlat is. Azt, hogy egy alfa hélix széttekeredik, ha a mozinkban látom, észreveszem. Tapasztalat kell ahhoz, hogy ha egy kutatók által írt program kiír egy teljesen értelmetlen hibaüzenetet, akkor érezzem, hogy mi lehet a hiba, hogyan tudom elhárítani. De kell mások tapasztalata is, mint mindenkinek, nekem is. Ugyanúgy, ahogy az évtizedes rutinnal rendelkező orvos is rendszeresen konzíliumot hív össze, úgy nekünk is érdemes mindig odafigyelni egymás meglátásaira.

Mire lenne szükség nagy áttörésekhez, profitábilis eredményekhez?

Még több befektetésre, ráfordításra az alapkutatások terén, minimum a jelenlegi költségvetés ötszörösére. Ez adna egy megfelelő alaplendületet a felfedező kutatásoknak, amelyekre így racionálisan tudna épülni a jelenleginél több és profitábilisabb innovációs tevékenység. Azaz kisebb összbefektetéssel több innováció tudna megvalósulni. Ez persze a szuperszámítógép használatát is fellendítené, tehát öngerjesztő folyamatként tovább növelné az igényeket, immár nem csak az alapkutatás, hanem az ipar területéről is.

Mit gondol a szuperszámítógépek jövőjéről?

Egyre nagyobb teljesítmény, egyre kisebb kapacitás használatával, egyre kevesebb energiafogyasztással, viszont egyre több és több akadémiai és ipari igénnyel. A szuperszámítógép-felhasználás várhatóan terjedni fog, az élet minden területét érinteni fogja, ugyanis egyre több mindent fogunk modellezni. Egyre több az adat, amelyek egyre több számítást igényelnek, és amelyek egyre jobb, pontosabb eredményeket szolgáltatnak. Leegyszerűsítve: tovább és jobban fogunk élni környezetünk egyre kisebb károsításával. A koronavírus-járvány leküzdésében is nélkülözhetetlen szerepet játszanak a szuperszámítógépek, felhasználják őket a járvány terjedésének modellezéséhez éppúgy, mint a vírusban található fehérjék szerkezetének és mozgásának megismeréséhez. Egy fehérjeszerkezet megismerése kísérleti úton évekig is eltarthat, ami ma már szuperszámítógép felhasználásával, mélytanulást alkalmazva már csak egy nap lesz.