Dienstag, 29. Oktober 2013

Wie große Datenmengen am effizientesten löschen?

Dieser Artikel beschreibt Strategien, wie große Datenmengen aus Relationen gelöscht werden können und dabei möglichst effizient und schnell zu arbeiten. Ziel einer solchen Operation ist die Vermeidung großer Datenmengen im Transaktionsprotokoll. Diese Aufgabenstellung zu dokumentieren, rührt von den immer wieder auftretenden Fragen in den Microsoft Foren bezüglich effizienter Löschstrategien:

Need to build a job that purges old data and rebuilds indexes

Removing large number of records with truncate?

Montag, 28. Oktober 2013

Page Splits – teure Datenbankoperationen im Detail

Page Splits sind kostenintensive Operationen, die zwangsläufig in Indexen auftreten, wenn die Schlüsselattribute nicht kontinuierlich / fortlaufend gefüllt werden. Der nachfolgende Artikel zeigt auf, welches Datenvolumen ein Page Split im im Transaktionsprotokoll verursachen kann und welche Einzeloperationen innerhalb einer solchen Transaktion von Microsoft SQL Server ausgeführt werden müssen.

Freitag, 11. Oktober 2013

Neue Daten in einen HEAP eintragen – immer auf der letzten Datenseite?

In einem Gespräch mit einem Kollegen im aktuellen Projekt wurde behauptet, dass ein INSERT in einem HEAP immer schneller und effizienter sei als in einem Clustered Index, da ja neue Daten grundsätzlich fortlaufend am Ende der Relation (letzte Datenseite) eingefügt werden. Diese Behauptung ist NICHT richtig wie der nachfolgende Artikel demonstriert