Výpočetní klastry

Z Wiki Katedry fyzikální chemie Univerzity Palackého v Olomouci
Skočit na navigaci Skočit na vyhledávání

Katedra fyzikální chemie disponuje několika výpočetními klastry, které se liší vlastnostmi (velikost disku, scratch, CPU, GPU, RAM) a od toho se odvíjí jejich využití.

Co je a není výpočetní klastr

V mnoha vědních oborech se využívají náročné počítačové výpočty a simulace, které musí zpracovat obrovské množství dat (předpověď počasí, částicová fyzika, výpočetní chemie atd.). Běžný osobní počítač by potřeboval mnoho času na vyřešení daných problémů, proto existuje několik možností, jak náročné výpočty urychlit. Zpravidla se rozdělují na

grid
klastr
superpočítač
  • Grid se skládá z běžných počítačových sestav, které jsou propojeny pomocí internetu a software následně rozděluje výpočetní zdroje mezi jednotlivé body gridu, tedy samotné počítače. Tento způsob umožňuje využití běžně dostupných zdrojů, je tedy levnější. Problém však je jejich decentralizace, odlišná stavba a komponenty, a pomalá vzájemná komunikace.
  • Výpočetní klastr je vyšší možností zvýšení výkonu. Struktura klastru je založená na mnoha jendotlivých počítačových sestavách uložených společně a vzájemně propojených pomocí nízko/vysoko-rychlostní vnitřní sítě. Jednotlivé sestavy mají zpravidla stejné komponenty. Rychlejší propojení jednotlivých výpočetních uzlů umožňuje jejich využití pro paralelní výpočty, kdy mnoho procesorů pracuje na jedné úloze. Právě paralelizace náročných úloh je jednou z klíčových metod jak zrychlit náročné výpočty. Pro více informací o klastrech navštivte například českou wikipedii.
Názorný příklad paralelizace může být například sečení pole. Jeden farmář poseká celé pole za dva týdny, dvěma to zabere týden a pokud se zapojí čtrnáct pracovníků, pole bude posekané za jeden den. Takhle by se dal úkol dělit dále, dokud je to výhodné. Například pošleme-li na pole 1400 lidí a očekáváme, že skončí za cca 14 minut, nebude tomu tak. Vzhledem k rozměrům pole (velikost výpočtu) nelze daný úkol efektivně rozdělit mezi 1400 pracovníků, protože by se tam prostě nevešli. Proto je třeba znát druh výpočtu a programu, který používáme, abychom efektivně využili dostupné zdroje. Dalším příkladem budiž oprava hodinek. Jednomu hodináři takový úkol zabere dvě hodiny, pokud na tento úkol nasadíme pět hodinářů, oprava zabere také dvě hodiny. Tato úloha se nedá paralelizovat a zvyšování počtu pracovníků (CPU, GPU) nevede k urychlení práce.
  • Superpočítač je speciální případ zvýšení výpočetního výkonu. Oproti gridu a klastru využívá jednu sestavu osazenou speciálními komponenty, které nejsou běžně dostupné v počítačových sestavách pro osobní použití. Superpočítač tak například využívá velké množství procesorů, které jsou zároveň mnohonásobně výkonnější pro určitý problém. Příklady superpočítačů jsou Belle a Deep Blue, které byly navrženy pro hru šachů (Deep Blue porazil Kasparova). Výhodami superpočítačů je vysokorychlostní komunikace mezi procesory díky jediné sestavě a speciální architektura procesorů pro řešení specifických problémů (například vektorové procesory). Mezi nevýhody patří hlavně cena, která je vyšší než u klastrů.

Na katedře tedy k výpočtům a simulacím používáme klastry, které jsou sestaveny pro různé potřeby. Mámě ale řekněte, že pracujete na superpočítači, zní to líp a je s tím méně vysvětlování.

Seznam a specifikace

Aule

Aule má celkem 18 výpočetních uzlů, každý s 12 procesory, 4 grafickými kartami a 32 GB RAM. Frontový systém obsahuje 3 fronty, které symbolicky rozdělují každý uzel na 8 cpu a dvakrát 2 cpu + 2 gpu. Home adresář je společný pro Aule, Nessa, Tulkas a Vaire.

Fronty
  • aq
    18 uzlů, každý s 8 jádry Intel® Xeon® E5-2630 a 32GB RAM.
  • aq-gpu-a
    18 uzlů o dvou grafických kartách Nvidia Tesla K10 8 GB. Navíc dva procesory, každý řídí jednu grafiku a až 32 GB RAM.
  • aq-gpu-b
    18 uzlů o dvou grafických kartách Nvidia Tesla K10 8 GB. Navíc dva procesory, každý řídí jednu grafiku a až 32 GB RAM.
Programy

Amber 18-pl06
Crystal 14-1.0.3
Gaussian 16 rev. b01
Gromacs 5.1.4
Molpro 2012.1.11
Siesta 4.1-b3
Turbomole 7.2.1
Vasp 5.3.3

Elwe

Fronty
Programy

Ingwe

Fronty
Programy

Melian

Pozor: Momentálně mimo provoz.

Melian je postaven na využití CPU pro kvantově mechanické výpočty a je přístupný studentům bakalářských a navazujících magisterských oborů. K dispozici je celkem 288 CPU, 704 GB RAM, disk o velikosti 7.3 TB a sdílený scratch o velikosti 324 GB. Každý výpočetní uzel má dále local scratch o velikosti 1.8 TB. Kvóta velikosti domácího adresáře uživatele je 256 GB. Grid Engine 6.2 se stará o rozdělení úloh do jedné ze tří front v závislosti na specifikovaných požadavcích pro danou úlohu.

Fronty
  • mq-12-2
    Celkem 12 uzlů, každý je osazen dvěma šestijádrovými procesory Intel® Xeon® X5650 a 2 GB RAM na jádro.
  • mq-8-2
    14 uzlů s dvěma čtyřjádrovými procesory Intel® Xeon® E5430 a 2 GB RAM na jádro.
  • mq-8-6
    4 uzly s dvěma čtyřjádrovými procesory Intel® Xeon® X5550 a až 6 GB RAM na jádro.
Programy

Abinit 6.4.3
Amber 12-pl18
Crystal 14-1.0.3
FHI-AIMS 160328
Gaussian 16 rev. b01
Gromacs 4.5.1
Molpro 2012.1.0
Turbomole 7.2.1
Vasp 5.3.5
Wannier90 1.2

Nessa

Fronty
  • nq-16-8
    12 uzlů s dvěma osmijádrovými procesory Intel® Xeon® E5-2660 a 8 GB RAM na jádro.
  • nq-ib-16-4
    50 uzlů s dvěma osmijádrovými procesory Intel® Xeon® E5-2660 a 4 GB RAM na jádro. Všechny uzly v této frontě jsou propojeny Infiniband kabelem a lze je tedy spojovat pro výpočet dohromady a získat tak větší výpočetní výkon.
Programy

Amber 16-pl11
Crystal 14-1.0.3
Gaussian 16 rev. b01
Gromacs 5.1.4
Molpro 2012.1.11
Siesta 4.1-b3
Turbomole 7.2.1
Vasp 5.4.4

Sauron

Fronty
Programy

Tulkas

Fronty
Programy

Vaire

Fronty
Programy

Disková úložiště

Fingelfin

Gondor

Mordor