IBM Forschung: Neue Speicherarchitektur kann die Verarbeitungsgeschwindigkeit bei Analytikanwendungen verdoppeln
ID: 300062
Next-Generation-Storage-Designlösung gewinnt die "Storage Challenge" auf dem Kongress Supercomputing 2010 (SC2010)
Analytikanwendungen über extrem große Datenbestände laufen zu lassen, wird für Unternehmen zunehmend wichtiger. Dabei kann die Speicherkapazität aber nur in begrenztem Maß steigen. Daher benötigen Unternehmen alternative Lösungen, um die Herausforderungen im Datenwachstum, im steigendem Flexibilitätsbedarf bei Workloads und im schnellem Bereitstellen von Systemressourcen für unterschiedliche Workloads zu bewältigen.
Die neue "General Parallel File System - Shared Nothing Cluster"-Architektur (GPFS-SNC) wurde dafür entwickelt, eine höhere Verfügbarkeit durch neue Clustering-Technologien, dynamisches File-System-Management und neue Datenreplizierungsverfahren zu erreichen. Durch "Shared Nothing" kann ein höheres Niveau an Verfügbarkeit, Leistung und Skalierbarkeit erzielt werden. GPFS-SNC ist eine verteilte Computing-Architektur, in der jeder Knoten "autark" ist. Aufgaben werden zwischen diesen unabhängigen Systemen verteilt und kein Knoten muß auf den anderen warten.
Die heutige IBM GPFS-Technologie ist bereits ein Kernbestandteil von IBM HPC-Systemen, dem IBM Information Archive, IBM Scale-Out NAS (SONAS) und der IBM Smart Business Compute Cloud. Die Weiterentwicklungen der IBM Labore wie GPFS-SNC erlauben eine weitere Ausdehnung dieser Angebote auf künftige, sehr große Herausforderungen im Datenbereich.
Beispielsweise setzen Finanzinstitute komplexe Algorithmen ein zur Risikoanalyse. Sie stützen sich dabei auf die Auswertung von Datenbeständen in Petabyte-Größe (1 Petabyte = 1 Mio Gigabyte). Dadurch, daß zugrundeliegende Dateien in Milliardenstückzahl über mehrere IT-Plattformen und Speichersysteme rund um die Welt verteilt sein können, erfordern diese wichtigen Anwendungen signifikante IT-Ressourcen und Kostenaufwände. Unter dem Einsatz des neuen GPFS-SNC-Designs können solche Anwendungen künftig effizienter werden, da das Design ein gemeinsames Dateisystem und einen gemeinsamen Namespace über verschiedene IT-Plattformen bereitstellt. Damit kann der Verarbeitungsprozess vereinfacht werden und der Speicherbedarf weiter reduziert.
Weitere Informationen über IBM Forschung: www.ibm.com/research
Unternehmensinformation / Kurzprofil:
Bereitgestellt von Benutzer: PresseBox
Datum: 19.11.2010 - 14:52 Uhr
Sprache: Deutsch
News-ID 300062
Anzahl Zeichen: 2889
Kontakt-Informationen:
Stadt:
New Orleans
Kategorie:
New Media & Software
Diese Pressemitteilung wurde bisher 408 mal aufgerufen.
Die Pressemitteilung mit dem Titel:
"IBM Forschung: Neue Speicherarchitektur kann die Verarbeitungsgeschwindigkeit bei Analytikanwendungen verdoppeln"
steht unter der journalistisch-redaktionellen Verantwortung von
IBM Deutschland GmbH (Nachricht senden)
Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).