Kategorie: "Optimierung / Performance"
Wie als Entwickler große Datenmengen testen?
Dez 4th
In den letzten Wochen wurde ich zu einem “Notfall” hinzugezogen, bei dessen Problemanalyse es darum ging, dass eine Abfrage für eine einfache Liste (ca. 500.000 betroffene Datenzeilen) sehr langsam ausgeführt wurde. Nachdem wir den Fehler gefunden hatte… mehr »
Wie große Datenmengen am effizientesten löschen?
Okt 29th
Dieser Artikel beschreibt Strategien, wie große Datenmengen aus Relationen gelöscht werden können und dabei möglichst effizient und schnell zu arbeiten. Ziel einer solchen Operation ist die Vermeidung großer Datenmengen im Transaktionsprotokoll. Diese A… mehr »
Page Splits – teure Datenbankoperationen im Detail
Okt 28th
Page Splits sind kostenintensive Operationen, die zwangsläufig in Indexen auftreten, wenn die Schlüsselattribute nicht kontinuierlich / fortlaufend gefüllt werden. Der nachfolgende Artikel zeigt auf, welches Datenvolumen ein Page Split im im Transaktion… mehr »
Neue Daten in einen HEAP eintragen – immer auf der letzten Datenseite?
Okt 11th
In einem Gespräch mit einem Kollegen im aktuellen Projekt wurde behauptet, dass ein INSERT in einem HEAP immer schneller und effizienter sei als in einem Clustered Index, da ja neue Daten grundsätzlich fortlaufend am Ende der Relation (letzte Datenseite… mehr »
DBCC SHRINKDATABASE – wirklich ein Segen für dba?
Sep 8th
In der letzten Woche wurde ich zu einem “Kurzeinsatz” hinzu gezogen, bei dem es darum ging, den hohen I/O bei Abfragen zu untersuchen. Die Programmierer waren alles erfahrene Leute und kannten sich sehr gut mit den Möglichkeiten der Indexanalyse und der… mehr »