Komponentit

Sa loob ng Tsubame - ang Nvidia GPU Supercomputer

Build Your Own GPU Accelerated Supercomputer - NVIDIA Jetson Cluster

Build Your Own GPU Accelerated Supercomputer - NVIDIA Jetson Cluster
Anonim

Kapag pumasok ka sa computer room sa ikalawang palapag ng computer building ng Tokyo Institute of Technology, hindi ka agad na sinaktan ng laki ng pinakamabilis na supercomputer sa Japan. Hindi mo makita ang Tsubame computer para sa pang-industriyang mga air conditioning unit na nakatayo sa iyong paraan, ngunit ito mismo ay nagsasabi. Sa pamamagitan ng higit sa 30,000 mga pagpoproseso ng mga cores paghuhukay, ang machine ay gumagamit ng isang megawatt ng kapangyarihan at kailangang panatilihing cool.

Tsubame ay niraranggo ang 29th-pinakamabilis na supercomputer sa mundo sa pinakabagong Top 500 ranking na may bilis na 77.48T Flops (ang mga pagpapatakbo ng lumulutang na tuldok sa bawat segundo) sa benchmark na pamantayan sa industriya.

Habang ang posisyon nito ay medyo maganda, hindi iyan ang ginagawang espesyal. Ang kagiliw-giliw na bagay tungkol sa Tsubame ay hindi ito umaasa sa raw processing ng CPUs (sentral na yunit sa pagpoproseso) na nag-iisa upang makuha ang gawain. Kasama sa Tsubame ang daan-daang graphics processor ng parehong uri na ginagamit sa mga PC ng mamimili, nagtatrabaho sa tabi ng CPU sa isang magkahalong kapaligiran na sinasabi ng ilan ay isang modelo para sa hinaharap na mga supercomputer na naghahain ng disiplina tulad ng materyal na kimika.

[Karagdagang pagbabasa: Pinakamahusay na mga kahon ng NAS para sa media streaming at backup]

Graphics processors (GPUs) ay napakagaling sa mabilis na pagsasagawa ng parehong pagtutuos sa malaking halaga ng data, upang maaari silang gumawa ng maikling gawain ng ilang mga problema sa mga lugar tulad ng molekular dynamics, physics simulation at pagproseso ng imahe. "Sa tingin ko sa karamihan ng mga kagiliw-giliw na problema sa hinaharap, ang mga problema na nakakaapekto sa sangkatauhan kung saan ang epekto ay nagmumula sa kalikasan … ay nangangailangan ng kakayahang manipulahin at makalkula sa isang napakalaking data set," sabi ni Jen-Hsun Huang, CEO ng Nvidia, na nagsalita sa unibersidad sa linggong ito. Gumagamit ang Tsubame ng 680 ng mga graphics card ng Tesla ng Nvidia.

Gaano karami ng pagkakaiba ang ginagawa ng mga GPU? Si Takayuki Aoki, isang propesor ng materyal na kimika sa unibersidad, ay nagsabi na ang mga simulasyong ginamit nang tatlong buwan ngayon ay tumagal ng 10 oras sa Tsubame.

Tsubame mismo - sa sandaling lumipat ka sa mga naka-air conditioner - ay nahati sa ilang mga kuwarto sa dalawa Ang sahig ng gusali at higit sa lahat ay binubuo ng mga sistema ng Sun-x4600 na nakabitin sa rack. Mayroong 655 ng mga ito sa lahat, ang bawat isa ay may 16 AMD Opteron CPU cores sa loob nito, at ang Clearspeed CSX600 accelerator boards.

Ang graphics chips ay nasa 170 Nvidia Tesla S1070 rack-mount unit na slotted sa pagitan ng Mga sistema ng araw. Ang bawat isa sa mga sistema ng 1U Nvidia ay may apat na GPU sa loob, bawat isa ay may 240 processing cores para sa kabuuan na 960 core bawat sistema.

Ang mga sistema ng Tesla ay idinagdag sa Tsubame sa loob ng mga isang linggo habang ang computer ay tumatakbo.

"Ang mga tao ay nag-iisip na kami ay mabaliw," sabi ni Satoshi Matsuoka, direktor ng Global Scientific Information and Computing Center sa unibersidad. "Ito ay isang ¥ 1 bilyon (US $ 11 milyon) supercomputer na gumagamit ng isang megawatt ng kapangyarihan, ngunit napatunayan namin na posibleng posible."

Ang resulta ay kung ano ang tinatawag na kawani ng unibersidad na bersyon 1.2 ng Tsubame supercomputer.

" Sa tingin ko ay dapat na nakamit namin ang 85 [T Flops], ngunit tumakbo kami sa labas ng oras kaya 77 [T Flops], "sabi ni Matsuoka ng mga benchmark na isinagawa sa system. Sa 85T Flops ito ay nagbangon ng ilang mga lugar sa Top 500 at na-ranggo na pinakamabilis sa Japan.

Mayroong palaging susunod: Ang isang bagong listahan ng Top 500 ay dahil sa Hunyo 2009, at hinahanap din ng Tokyo Institute of Technology mas maaga.

"Hindi ito ang dulo ng Tsubame, ito lamang ang simula ng GPU acceleration na naging mainstream," sabi ni Matsuoka. "Naniniwala kami na sa mundo magkakaroon ng mga supercomputers na nagrerehistro ng ilang mga petaflops sa mga darating na taon, at nais naming sundin ang suit."

Tsubame 2.0, habang tinawag niya ang susunod na pag-upgrade, ay narito sa loob ng susunod na dalawang taon at ipagmalaki ang isang napapanatiling pagganap ng hindi bababa sa isang petaflop (isang petaflop ay 1,000 teraflops), sinabi niya. Ang pangunahing disenyo para sa makina ay hindi pa rin tinatapos ngunit ipagpapatuloy nito ang magkakaibang computing base ng paghahalo ng mga CPU at GPU, sinabi niya.