Výpočetní klastry

Z Wiki Katedry fyzikální chemie Univerzity Palackého v Olomouci
Skočit na navigaci Skočit na vyhledávání

Katedra fyzikální chemie disponuje několika výpočetními klastry, které se liší vlastnostmi (velikost disku, scratch, CPU, GPU, RAM) a od toho se odvíjí jejich využití.

Co je a není výpočetní klastr

V mnoha vědních oborech se využívají náročné počítačové výpočty a simulace, které musí zpracovat obrovské množství dat (předpověď počasí, částicová fyzika, výpočetní chemie atd.). Běžný osobní počítač by potřeboval mnoho času na vyřešení daných problémů, proto existuje několik možností, jak náročné výpočty urychlit. Zpravidla se rozdělují na

grid
klastr
superpočítač
  • Grid se skládá z běžných počítačových sestav, které jsou propojeny pomocí internetu a software následně rozděluje výpočetní zdroje mezi jednotlivé body gridu, tedy samotné počítače. Tento způsob umožňuje využití běžně dostupných zdrojů, je tedy levnější. Problém však je jejich decentralizace, odlišná stavba a komponenty, a pomalá vzájemná komunikace.
  • Výpočetní klastr je vyšší možností zvýšení výkonu. Struktura klastru je založená na mnoha jendotlivých počítačových sestavách uložených společně a vzájemně propojených pomocí nízko/vysoko-rychlostní vnitřní sítě. Jednotlivé sestavy mají zpravidla stejné komponenty. Rychlejší propojení jednotlivých výpočetních uzlů umožňuje jejich využití pro paralelní výpočty, kdy mnoho procesorů pracuje na jedné úloze. Právě paralelizace náročných úloh je jednou z klíčových metod jak zrychlit náročné výpočty. Pro více informací o klastrech navštivte například českou wikipedii.
Názorný příklad paralelizace může být například sečení pole. Jeden farmář poseká celé pole za dva týdny, dvěma to zabere týden a pokud se zapojí čtrnáct pracovníků, pole bude posekané za jeden den. Takhle by se dal úkol dělit dále, dokud je to výhodné. Například pošleme-li na pole 1400 lidí a očekáváme, že skončí za cca 14 minut, nebude tomu tak. Vzhledem k rozměrům pole (velikost výpočtu) nelze daný úkol efektivně rozdělit mezi 1400 pracovníků, protože by se tam prostě nevešli. Proto je třeba znát druh výpočtu a programu, který používáme, abychom efektivně využili dostupné zdroje. Dalším příkladem budiž oprava hodinek. Jednomu hodináři takový úkol zabere dvě hodiny, pokud na tento úkol nasadíme pět hodinářů, oprava zabere také dvě hodiny. Tato úloha se nedá paralelizovat a zvyšování počtu pracovníků (CPU, GPU) nevede k urychlení práce.
  • Superpočítač je speciální případ zvýšení výpočetního výkonu. Oproti gridu a klastru využívá jednu sestavu osazenou speciálními komponenty, které nejsou běžně dostupné v počítačových sestavách pro osobní použití. Superpočítač tak například využívá velké množství procesorů, které jsou zároveň mnohonásobně výkonnější pro určitý problém. Příklady superpočítačů jsou Belle a Deep Blue, které byly navrženy pro hru šachů (Deep Blue porazil Kasparova). Výhodami superpočítačů je vysokorychlostní komunikace mezi procesory díky jediné sestavě a speciální architektura procesorů pro řešení specifických problémů (například vektorové procesory). Mezi nevýhody patří hlavně cena, která je vyšší než u klastrů.

Na katedře tedy k výpočtům a simulacím používáme klastry, které jsou sestaveny pro různé potřeby. Mámě ale řekněte, že pracujete na superpočítači, zní to líp a je s tím méně vysvětlování.

Seznam a specifikace

Aule

Pozor: Mimo provoz

Aule má celkem 216 CPU a 72 GPU na 18 výpočetních uzlech s 32 GB RAM. Home adresář je společný pro Aule, Nessa, Tulkas a Vaire.

Fronty
  • 18x 8 Intel® Xeon® E5-2630 CPU a 32GB RAM/uzel
  • 18x 4 Nvidia Tesla K10 8 GB GPU 32 GB RAM/uzel + 8 GB RAM/GPU
Programy

Amber 18-pl06
Crystal 14-1.0.3
Gaussian 16 rev. b01
Gromacs 5.1.4
Molpro 2012.1.11
Siesta 4.1-b3
Turbomole 7.2.1
Vasp 5.3.3

Elwe

Fronty
Programy

Ingwe

Fronty
Programy

Melian

Melian je postaven na využití CPU a je přístupný studentům bakalářských a navazujících magisterských oborů. K dispozici je celkem 288 CPU na 30 uzlech, 704 GB RAM, disk o velikosti 7.3 TB a sdílený scratch o velikosti 324 GB. Každý výpočetní uzel má dále local scratch o velikosti 1.8 TB.

Fronty
  • 12x 12 Intel® Xeon® X5650 CPU, 24 GB RAM/uzel
  • 14x 8 Intel® Xeon® E5430 CPU, 16 GB RAM/uzel
  • 4x 8 Intel® Xeon® X5550 CPU, 48 GB RAM/uzel
Programy

Abinit 6.4.3
Amber 12-pl18
Crystal 14-1.0.3
FHI-AIMS 160328
Gaussian 16 rev. b01
Gromacs 4.5.1
Molpro 2012.1.0
Turbomole 7.2.1
Vasp 5.3.5
Wannier90 1.2

Nessa

Nessa je další klastr pro CPU výpočty, vyšší řadou procesorů, větší RAM a propojeným uzlům pomocí infinibandu. Celkově obsahuje 992 CPU a 4,7 TB RAM.

Fronty
  • 12x 16 Intel® Xeon® E5-2660 CPU, 128 GB RAM/uzel
  • 50x 16 Intel® Xeon® E5-2660 CPU, 64 GB RAM/uzel. Všechny uzly v této frontě jsou propojeny Infiniband kabelem a lze je tedy spojovat pro výpočet dohromady a získat tak větší výpočetní výkon.
Programy

Amber 16-pl11
Crystal 14-1.0.3
Gaussian 16 rev. b01
Gromacs 5.1.4
Molpro 2012.1.11
Siesta 4.1-b3
Turbomole 7.2.1
Vasp 5.4.4

Sauron

Klastr sauron je určen pro náročné paralelní CPU a GPU výpočty. K dispozici je clekem 520 CPU a 52 GPU, s celkovou RAM 5 TB, do které není zahrnuta RAM jednotlivých grafických karet.

Fronty
  • 26x 20 Intel® Xeon® Silver 4114 CPU, 196 GB RAM/uzel
  • 26x 2 NVIDIA GeForce GTX 1080 Ti GPU s 11 GB RAM/GPU + 196 GB RAM/uzel
Programy

Tulkas

Tento klastr je určen pro MD simulace s využitím CPU, kterých zde najdeme celkem 448 na 14 uzlech. Není zde úložiště scratch a každý uzel disponuje 32 GB RAM.

Fronty
  • 14x 32 Intel® Xeon® E5-4620 CPU, 32 GB RAM/uzel
Programy

Vaire

Klastr vaire je stavbou určen pro paralelní enhanced sampling molekulárně dynamické simulace. V 16 frontách obsahuje celkem 192 CPU a 64 GPU. Velká scratch úložiště o kapacitě 2,7 TB na každém uzlu poskytují dostatek místa pro dlouhé simulace.

Fronty
  • 16x 8 Intel® Xeon® E5-2620 CPU, 32 GB RAM/uzel
  • 16x 4 Intel® Xeon® E5-2620 CPU + 4 NVIDIA GeForce GTX 1080 Ti GPU, 32 GB RAM/uzel + 11 GB RAM/GPU.
Programy