Server-Metriken - eine joint study in Schweiz-Österreich-Deutschland
Unten sehen Sie erste Ergebnisse - ausführlich in IT-Management 1-2/2010, S. 32-36 oder auf Anfrage von mir in dem Artikel: "Urmeter fürs Computing" und seit Januar 2011 revisited unter:
http://www.it-daily.net/content/view/3665/32/
Inzwischen haben wir fast 2.000 Servermodelle zur Auswertung bekommen. Jetzt kann jeder mitmachen, der mindestens 50 Server betreibt und die Daten zur Verfügung stellt. Wir haben nicht den Ehrgeiz, eine perfekte Lösung für eins der schwierigsten Probleme im IT-Betrieb zu finden, nämlich Massgrössen für Abrechnung, Benchmarking und Preisvergleiche zu schaffen. Aber der bisherige Erfolge zeigt, dass wir auf gutem Weg sind, brauchbare Einheiten zu finden, die für den IT-Rechenzentrums-Kundenverkehr, für jede Anwendung und alle Branchen gelten.
Zunächst werden für die IT-Infrastruktur Benchmarks gefunden, die hier weiterhelfen. Auch zum Preisvergleich gegenüber Cloud-Computing kann man sie einsetzen.
Begründung:
Statt heute mit einer Unzahl divergierenden Metriken können wir künftig nach überall vergleichbaren Standards den Rechner-Betrieb bewerten, benchmarken, und abrechnen. Auch für die Entscheidung "Virtualisierung versus Mainframe oder Serverfarm" bieten sie entschiedene Vorteile. Klar ist, dass diese Leistungs-Vergleiche nur einen Teilaspekt jeder Entscheidung darstellen. Jedoch ist es ohne Klarheit in diesem Punkt kaum sinnvoll, über Alternativen nachzudenken.
Unser Ziel ist nicht die technische Perfektion, sondern pragmatische Transparenz und Akzeptanz. Da wir eine betriebswirtschaftlich/statistische Vorgehensweise walten lassen, sind saubere Daten wichtiger als perfektionistische Formeln und Benchmark-Suiten
Es geht primär um physische Server. Wenn Sie virtuelle Server betreiben, brauchen wir zusätzlich die Daten der physischen Server. Alle Daten werden absolut vertraulich behandelt. Monatlich werden alle neuen Teilnehmerdaten ausgewertet und diese erhalten die Ergebnisse. Wer keine Daten beistellen kann, kann Ergebnisse zu Selbstkosten erhalten.
Um die Leistungsfähigkeit von Rechnern vergleichbar zu bewerten, sind erforderlich:
1. bei marktgängigen Servern auf Basis von Intel, AMD und Power Prozessoren die:
Anzahl
-
Prozessoren
-
Cores (Kerne)
-
Threads
-
Taktfrequenz und
-
RAM-Ausbau in (GB)
möglichst auch:
-
Nodes
-
threads
-
n-ways
Bitte verwenden Sie hier zu diese EXCEL-Tabelle
Vor allem interessieren die Hersteller:
-
Dell
-
HP
-
Fujitsu (Siemens)
-
IBM
-
Sun
Andere Hersteller werden nur berücksichtigt, wenn von ihnen wenigstens 100 Modelle existieren.
2. für jedes Modell wird aus Anzahl Cores, Taktfrequenz und RAM die Leistungskennzahl "SLW" (Server Leistungs Wert) gebildet. Es ergibt sich eine lückenlose Bewertung vom kleinsten bis zum stärksten Server. Die genaue Formel wird vorerst nur den Teilnehmern mitgeteilt. Diese Bewertung korreliert stark mit
-
SAPs gemäss dem SAP-Benchmark Verfahren (Sizing)
-
TPC-C nach dem Transaction Processing Council
-
Specint2006 nach dem Standard Performance Evaluation Council
In Vorbereitung ist die Korrelation mit dem rperf - Benchmark von IBM und ggf. weiteren
3. Weiter wird auch eine Brücke zwischen Mainframe-Metriken wie
-
SU,
-
MSU,
-
PVU oder
-
MIPS
und den SLW geschlagen. Wenn für einen nennenswerten Anteil der Gesamtzahl Server - sagen wir 10 bis 20 Prozent - solche Mainframe-Werte konsensuell akzeptiert sind, wird schliesslich für jeden Server ein entsprechender Mainframe-Metrikwert zugeordnet und umgekehrt.
Hierzu sind Erfahrungen und Ideen wichtiger als ein mathematisches Verfahren. Bei unserem Vorgehen handelt es sich nicht um eine exakt-rechnerische Formel, sondern einen konsensgestützten pragmatischen betriebswirtschaftlichen Ansatz.
4. Alle Teilnehmer erhalten entsprechende Auswertungen und können ihre Erfahrungen beisteuern.
5. Im Anschluss ist auch an eine Weiterentwicklung zur Bemessung von IT-S e r v i c e s gedacht. Diesen Schritt wollen wir nicht vor dem ersten gehen.
Nehmen auch Sie teil und profitieren von den Ergebnissen !
Urmeter fürs Computing ?
dies ist ein Auszug aus dem veröffentlichten Artikel in IT-Management und Geldinstitute
Was macht ein CIO. wenn mal wieder neue Kapazitäten im Rechenzentrum gebraucht werden ? Oder wenn er virtualisieren will ? Oder wenn der Hersteller-VB ihm nahe legt, mit einem Mainframe seinen Serverpark abzulösen ? Oder umgekehrt, wenn er den ungeliebten Mainframe durch einige Server ersetzen möchte ?
……………………………………………
Fast immer scheitert dann die Frage nach vergleichbaren Werten sehr schnell an der umständlichen Normierung. Da es keine offiziellen Standards gibt, muss man sich erfahrene Spezialisten buchen. Manchmal arbeiten diese mit eigenen Formeln und Vergleichstabellen, die man nicht recht durchschauen kann. Und ob das Ergebnis schliesslich wirklich belastbar ist, muss man eher glauben als wissen.
Daher wird hier ein Massstab vorgeschlagen, der ebenso einfach wie transparent ist. Die Genauigkeit ist dabei zwar nicht perfekt, bietet aber in vielen Fällen ausreichende Vergleichbarkeit.
Man bildet nach einer einfachen Formel einen Wert aus Prozessoren, Rechenkernen, Taktfrequenz und Arbeitsspeicher. So bekommt man Werte, die weitgehend mit den Leistungs-Kennziffern von TPC und SPEC sowie SAPs-BM parallel laufen. Wir nennen diese Kennzahl den Server-Leistungs-Wert (SLW). Bis auf einige Ausreißer bilden sie eine recht kontinuierliche Kurve. Dazu kommt als Vorteil, dass man diesen Wert selbst errechnen kann und daher nicht auf Hersteller oder Berater zurückgreifen muss.
Zur Erhärtung dieser Formel wurden etwa 1.500 verschiedene Servertypen untersucht, die uns von Teilnehmern der Aktion mitgeteilt wurden. Sie kommen von IBM, Fujitsu, Siemens, HP, Dell. Davon haben etwa tausend einen TPC Wert, der zwischen 4 Mio. und 200 liegt, eine enorme Spanne. Etwa 300 – vornehmlich Fujitsu Server - haben einen Wert für den Specrate-2006-Test. Von SPEC gibt es mehr als ein Dutzend verschiedene Benchmark-Varianten, die sich nach Alter, Technik und Ergebnis-Aussage unterscheiden. Der „rate“- und der „rate-base“- Benchmark soll vor allem den Durchsatz anzeigen und liegt zwischen 20 und 300. Die anderen Server haben entweder keinen Benchmark-Wert oder Randgruppen-Werte wie z. B. OLTP, Specint2000, PVU.
Stellt man nun die SLW-Ergebnisse den TPC- und SPEC- oder SAPs-Werten gegenüber, so ergeben sich Kurven, die gut korrelieren. Zwar gibt es auch Ausreisser, die sich um die SLW Kurve scharen, doch sind ihre Abweichungen für das IT-Finanzmanagement unbedeutend. So kann man die Computing-Power eines Rechenzentrums sehr gut mit einem Outsource Vertrag oder einem Cloud-Angebot vergleichen. Zum Beispiel bekommt man bei Amazon für die EC2-Unit ziemlich genau xxxxxxx SLW für 0,010 USD oder rund 7 Euro-Cent. Bei Microsoft liegt das Azure-Angebot bei 12 US-Cent, und auch da stehen ähnliche Werte dahinter.
Das kann man dann gut mit dem eigen Rechenzentrum oder dem Outsourcer vergleichen