Verschiedenes

Effizienzmaximierung für Ihr Rechenzentrum

ARKM.marketing
     

London (ots/PRNewswire) – Gibt es beim Betrieb eines Rechenzentrums einen wichtigeren Faktor als Systemzuverlässigkeit? Wahrscheinlich nicht. Schliesslich gäbe es ohne diesen Aspekt kein Rechenzentrum, sondern stattdessen einen teuren Misserfolg.

Systemzuverlässigkeit ist so unerlässlich, dass ganze Industriezweige entstanden sind, um sie zu gewährleisten. RAID-Systeme sind eine fehlersichere Lösung für das Problem von Festplattenausfällen. Fällt eine Festplatte aus, sind Daten nach wie vor auf einer oder mehreren anderen gespeichert. Für unternehmenskritische Systeme wird ein Failover-System eingesetzt. Hierbei wird bei Server- oder Netzwerkausfall ein anderes System gestartet und bleibt dann betriebsbereit.

Ungeachtet aller modernen Backup- und Ausfalllösungen liegt es jedoch in der Beschaffenheit von Windows-Dateisystemen, zu fragmentieren. Wird diesem Vorgang nicht entgegengewirkt, können Probleme für Benutzer, Netzwerke und ganze Unternehmen entstehen und tun es in der Tat bereits.

Fragmentierung ist ein kalkulierter, jedem Windows-Betriebssystem eigener Schwachpunkt. Sie wurde absichtlich geschaffen, um Festplattenplatz effizienter zu nutzen. Der Nachteil ist, dass fragmentierte Dateien über die ganze Festplatte verteilt werden. Jedes irgendwo zu jeglichem Zweck genutzte Diskettenlaufwerk, einschliesslich RAID, Spiegelsystemen oder Backups, ist den daraus entstehenden schädlichen Auswirkungen ausgesetzt.

Im Informatikbereich ist es keine Neuigkeit, dass Fragmentierung die Performance beeinträchtigt. Eventuell weniger gut bekannt ist jedoch die Auswirkung von Fragmentierung auf die Systemzuverlässigkeit. Vom Systemstart bis zum Herunterfahren kann eine fragmentierte Festplatte bei fast jeder Windows-Aktivität auf Systemebene Probleme verursachen. Ein Hauptgrund ist, dass das Windows-Betriebssystem fortwährend auf die festplattenbasierte Auslagerungsdatei zugreift. Somit ist zuverlässiges Funktionieren der Festplatte unerlässlich für zuverlässigen Systembetrieb. Fragmentierungsprobleme mit der Auslagerungsdatei können dazu führen, dass nicht mehr genügend virtueller Speicher verfügbar ist, und können auch Datenverlust zur Folge haben. Darüber hinaus kann eine stark fragmentierte Master File Table (die von NTFS, dem Windows-Dateisystem, genutzte File Allocation Table, auch Dateizuordnungstabelle genannt) den ohnehin schon langen Systemstartprozess eines Windows-Computers noch weiter verlangsamen.

SAN-Speicherung und NTFS

Inzwischen hat sich die Nutzung von SANs (Storage Area Networks) zur Deckung des Speicherbedarfs durchgesetzt. Bei SANs wird typischerweise ein geclustertes/SAN-Dateisystem genutzt, um Disk-Arrays als einen virtuellen Speicherraum zusammenzubringen. Dies geschieht nicht über NTFS, sondern über proprietäre Software, die von einem SAN-Hardware- oder âEUR’Softwareanbieter geliefert wird. Dieses Dateisystem läuft grundsätzlich parallel zu NTFS, anstatt das Letztere zu ersetzen. Jedes Dateisystem fungiert praktisch wie eine „virtuelle Festplatte“. Eine virtuelle Komponente über eine andere gelagert zu nutzen (das heisst ein Dateisystem neben einem anderen) ist durchaus praktikabel und wird zunehmend verbreiteter.

Was der Anbieter eines SAN-Dateisystems mit diesem tut hat keinen Einfluss auf NTFS. Aussagen wie „Defragmentierung erübrigt sich“ könnten eventuell missverständlich auf NTFS bezogen werden. Es ist durchaus möglich, dass das SAN-Dateisystem nicht defragmentiert werden muss. Experte für dieses Dateisystem und Ansprechpartner für Konfigurationstipps, Best Practices und Methoden zur SAN-I/O-Optimierung ist der jeweilige Hersteller.

NTFS fragmentiert beim Speichern nach wie vor. Das führt dazu, dass das Windows-Betriebssystem an das SAN geschickte I/O-Anfragen für Dateien „spaltet“, was die Performance beeinträchtigt. SANs speichern immer nur auf Blockebene und können nicht erkennen, welche I/Os sich auf welche Dateien beziehen. Deshalb können sie die Fragmente einer Datei nicht intelligent über mehrere Festplatten verteilen. Eine grosse Menge verschiedener I/Os schreibt/liest fragmentierte Dateien (und läuft höchstwahrscheinlich parallel zu anderen, gleichzeitigen Datenschreib- und Datenlesevorgängen) und wird über die Festplatten eines SAN-Speicherraums nicht optimal verteilt, das heisst mehr Fragmente einer Datei werden auf eine Festplatte geschrieben und Daten werden nicht gleichmässig über alle Festplatten hinweg verteilt.

Anbieter von SAN-Dateisystemen können eventuell Optimierungsstrategien anbieten. Hierbei werden Daten über Festplatten hinweg verteilt, während das System mit der Zeit „dazulernt“ – typischerweise sind Datenanfragen nicht ausgeglichen über SAN-Spindeln verteilt. Im Allgemeinen trifft dies auch beim Disk-Striping (RAID) zu. SAN-Designer und -Entwickler sind sich einig, dass NTFS-Fragmentierung ein wirkliches Problem darstellt, und dass eine fortgeschrittenere Art von Defragmentierung wichtig ist („einfache“ Defragmentierer können tatsächlich noch schwerwiegendere Probleme verursachen).

Dateifragmentierung bedeutet zudem eine erhebliche physische Belastung der Festplatte. Um auf Daten in fragmentierten Dateien zuzugreifen, muss der Festplattenkopf mehr und häufiger bewegt werden. Umso mehr der Festplattenkopf sich bewegt, desto geringer wird die mittlere Betriebsdauer zwischen Ausfällen (MTBF), was die Lebensdauer der Festplatte verkürzt.

Die frühere Praktik regelmässiger, geplanter Defragmentierung gehört der Vergangenheit an. Für Festplattengrössen und Speichervolumen heutiger Systeme wären diese Methoden nicht mehr effizient. Nutzung eines systemeigenen Defragmentierungstools ist einfach nicht umfassend genug, um den benötigten Effekt zu erreichen und wieder die Performance zu ermöglichen, die Ihr System ursprünglich einmal erbrachte. Zuverlässigkeit ist rund um die Uhr erforderlich, ungeachtet angewandter Backup-Systeme und Speichertechnologien (RAID, SAN). Möglichst lange Systembetriebszeit ist unerlässlich, und hierfür ist Zuverlässigkeit wesentlich. Als All-In-One-Lösung bei Performance- und Zuverlässigkeitsproblemen können Sie Diskeeper als kostenlose Trialware unter herunterladen.

Orginal-Meldung: http://www.presseportal.de/pm/59506/2031108/diskeeper_corporation_europe/api

ARKM.marketing
 

Zeige mehr
Schaltfläche "Zurück zum Anfang"

Werbeblocker erkannt!

Werbeblocker erscheinen auf den ersten Blick praktisch, weil sie störende Anzeigen ausblenden. Doch viele Internetseiten finanzieren sich ausschließlich durch Werbung – das ist oft die einzige Möglichkeit, die Kosten für Redaktion, Technik und Personal zu decken. Wenn Nutzer einen Werbeblocker aktivieren, entziehen sie der Seite diese wichtige Einnahmequelle. Die Folge: Verlage und Webseitenbetreiber verlieren  Einnahmen, die oft sogar die Gehälter ganzer Teams oder Redaktionen gefährden. Ohne Werbeeinnahmen fehlen die Mittel, um hochwertige Inhalte kostenlos anzubieten. Das betrifft nicht nur große Medienhäuser, sondern auch kleine Blogs, Nischenportale und lokale Nachrichtenseiten, für die der Ausfall durch Werbeblocker existenzbedrohend sein kann. Wer regelmäßig eine werbefinanzierte Seite nutzt, sollte sich bewusst machen, dass der Betrieb und die Pflege dieser Angebote Geld kosten – genau wie bei einer Zeitung oder Zeitschrift, für die man selbstverständlich bezahlt. Werbeblocker sind daher unfair, weil sie die Gegenfinanzierung der Verlagskosten und Personalgehälter untergraben, während die Inhalte weiterhin kostenlos genutzt werden. Wer den Fortbestand unabhängiger, kostenloser Online-Inhalte sichern möchte, sollte deshalb auf den Einsatz von Werbeblockern verzichten oder zumindest Ausnahmen für seine Lieblingsseiten machen. Wenn Sie unsere Seite weiterhin lesen möchten, dann seien Sie fair! Danke.