Národní úložiště šedé literatury Nalezeno 6 záznamů.  Hledání trvalo 0.00 vteřin. 
Metody extrakce informací
Adamček, Adam ; Smrž, Pavel (oponent) ; Kouřil, Jan (vedoucí práce)
Cílem procesu extrakce informací je získání relačních dat z textu psaného přirozeným jazykem na další jednodušší zpracování výpočetní technikou. Oblast využití takto získaných informací je široká - od sumarizace textů, přes vytváření ontologií až po zodpovídání otázek QA systémy. Tato práce popisuje návrh a implementaci systému fungujícího ve výpočetním clusteru, který transformuje výpis článků Wikipedie na množinu vyextrahovaných informací, které jsou následně uloženy do distribuované RDF databáze a je nad nimi možné sestavovat dotazy prostřednictvím vytvořeného uživatelského rozhraní.
Reportovací nástroj pro GridEngine
Rožek, František ; Chalupníček, Kamil (oponent) ; Kašpárek, Tomáš (vedoucí práce)
Cílem této práce je sestavit nástroj, který bude odrážet využití výpočetního clusteru postaveného na technologii Grid Engine. Data jsou zpracována pomocí PHP a Shell skriptů a následně uložena do MySQL, či RRD databází. V práci byl vytvořen systém, který zpracovává obrovské množství dat a poskytuje ucelený náhled na využití celého clusteru, ale i jeho konkrétních komponent, či na statistiky jednotlivých uživatelů. Vytvořené řešení poskytuje aktuální i dlouhodobá data. Výsledek této práce umožňuje sledovat výpočetní cluster z jediného nástroje, což dříve nebylo možné.
Řešení pro clusterování serverů
Čech, Martin ; Polívka, Michal (oponent) ; Pelka, Tomáš (vedoucí práce)
V práci je uveden rozbor Open Source Software (dále jen OSS), který umožňuje využívat a vytvářet počítačové clustery. Je zde prozkoumána problematika clusteringu a sestavování clusterů. Veškeré instalace konfigurace a správa clusteru byly prováděny na operačním systému GNU/Linux. Je zde uveden OSS umožňující sestavit úložný cluster, cluster s rozložením zátěže, cluster s vysokou dostupností a výpočetní cluster. Teoreticky byly rozebrány různé druhy benchmarků, pomocí kterých je pak měřen výkon a ten je možné dále srovnávat, např. se seznamem TOP500 nejvýkonnějších clusterů dostupným online. Praktická část práce se zabývá porovnáním výkonu výpočetních clusterů. S několika desítek výpočetních uzlů byl sestaven cluster na který byl nainstalován balík OpenMPI, který umožňuje paralelizaci výpočtů. Následně byly provedeny testy s programem High Performance Linpack, který pomocí výpočtů lineárních rovnic stanoví výkon celku. Testoval se také vliv paralelizace na algoritmus PEA. Pro praktické využití clusteru byl testován program John The Ripper na luštění přihlašovacích hesel. V práci je uvedeno množství grafů objasňujících funkci a hlavně znázorňující dosažené výsledky.
Reportovací nástroj pro GridEngine
Rožek, František ; Chalupníček, Kamil (oponent) ; Kašpárek, Tomáš (vedoucí práce)
Cílem této práce je sestavit nástroj, který bude odrážet využití výpočetního clusteru postaveného na technologii Grid Engine. Data jsou zpracována pomocí PHP a Shell skriptů a následně uložena do MySQL, či RRD databází. V práci byl vytvořen systém, který zpracovává obrovské množství dat a poskytuje ucelený náhled na využití celého clusteru, ale i jeho konkrétních komponent, či na statistiky jednotlivých uživatelů. Vytvořené řešení poskytuje aktuální i dlouhodobá data. Výsledek této práce umožňuje sledovat výpočetní cluster z jediného nástroje, což dříve nebylo možné.
Metody extrakce informací
Adamček, Adam ; Smrž, Pavel (oponent) ; Kouřil, Jan (vedoucí práce)
Cílem procesu extrakce informací je získání relačních dat z textu psaného přirozeným jazykem na další jednodušší zpracování výpočetní technikou. Oblast využití takto získaných informací je široká - od sumarizace textů, přes vytváření ontologií až po zodpovídání otázek QA systémy. Tato práce popisuje návrh a implementaci systému fungujícího ve výpočetním clusteru, který transformuje výpis článků Wikipedie na množinu vyextrahovaných informací, které jsou následně uloženy do distribuované RDF databáze a je nad nimi možné sestavovat dotazy prostřednictvím vytvořeného uživatelského rozhraní.
Řešení pro clusterování serverů
Čech, Martin ; Polívka, Michal (oponent) ; Pelka, Tomáš (vedoucí práce)
V práci je uveden rozbor Open Source Software (dále jen OSS), který umožňuje využívat a vytvářet počítačové clustery. Je zde prozkoumána problematika clusteringu a sestavování clusterů. Veškeré instalace konfigurace a správa clusteru byly prováděny na operačním systému GNU/Linux. Je zde uveden OSS umožňující sestavit úložný cluster, cluster s rozložením zátěže, cluster s vysokou dostupností a výpočetní cluster. Teoreticky byly rozebrány různé druhy benchmarků, pomocí kterých je pak měřen výkon a ten je možné dále srovnávat, např. se seznamem TOP500 nejvýkonnějších clusterů dostupným online. Praktická část práce se zabývá porovnáním výkonu výpočetních clusterů. S několika desítek výpočetních uzlů byl sestaven cluster na který byl nainstalován balík OpenMPI, který umožňuje paralelizaci výpočtů. Následně byly provedeny testy s programem High Performance Linpack, který pomocí výpočtů lineárních rovnic stanoví výkon celku. Testoval se také vliv paralelizace na algoritmus PEA. Pro praktické využití clusteru byl testován program John The Ripper na luštění přihlašovacích hesel. V práci je uvedeno množství grafů objasňujících funkci a hlavně znázorňující dosažené výsledky.

Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.