Schneller zum Mehrwert aus wachsenden Datenmengen

Grosse und laufend steigende Datenmengen sind kein Selbstzweck. Vielmehr ermöglichen sie durch intelligente und schnelle Analyse neue Erkenntnisse, die Unternehmen wesentliche Verbesserungen und neue Geschäftsmöglichkeiten verschaffen. Mit dem neuen SQL Server 2014 beschleunigt Microsoft den Weg zu diesem Mehrwert.

von ray 23.04.2014
Beat Weissenberger, Produktmarketingmanager SQL Server bei Microsoft Schweiz. Beat Weissenberger, Produktmarketingmanager SQL Server bei Microsoft Schweiz. Zoom

Redaktion: In den Medien taucht immer wieder das Schlagwort Big Data auf. Die weltgrösste IT-Messe für Unternehmen, die CeBIT, hatte in diesem Jahr das Thema «Datability», also Fähigkeit und Verantwortung, mit grossen Datenmengen umzugehen. Was haben gerade kleine und mittlere Unternehmen davon, wenn sie sich damit beschäftigen?

Weissenberger: Die Themen Big Data und Datability sind für Unternehmen jeder Grösse interessant. Alle Unternehmen verarbeiten und speichern immer mehr Daten. Jetzt geht es darum, durch die Nutzung von Technologie neue Mehrwerte aus den Daten zu erschaffen. Dies erreicht man, indem man Daten aus verschiedenen Datenquellen, strukturiert oder unstrukturiert, miteinander verbindet, um neue Erkenntnisse zu erhalten, die einem Unternehmen Vorteile am Markt verschaffen. Lassen Sie mich das an einem Beispiel erklären:

Sie sind Bauherr, bauen eine Siedlung, und der bestellte Elektroinstallateur kommt pünktlich auf die Baustelle. Leider ist aber das nötige Material nicht vor Ort, weil die Lieferung aus dem Ausland aufgrund von Verkehrsstörungen nicht pünktlich gebracht werden konnte. Ärgerlich – es entstehen dadurch Kosten, die hätten vermieden werden können …

Wenn jedoch die Liefer- und Planungsdaten laufend mit Verkehrs- und Wetterdaten angereichert und analysiert worden wären, hätte man die Verspätung frühzeitig festgestellt, die Planung anpassen, den Elektroinstallateur umbuchen und somit Kosten sparen können. Das ist nur ein Beispiel dafür, was Big Data sein kann. Solche Szenarien sind nicht abhängig von der Grösse der Unternehmen.

Gerade bei der Verarbeitung grosser Datenmengen kommt es auf Geschwindigkeit an, damit man nicht ewig auf Ergebnisse warten muss. Wie lässt sich das beschleunigen?

Für einen schnellen Zugriff ist die Art der Datenhaltung ausschlaggebend. Mit der In-Memory-Technologie kann man sogenannte „Hot Data“ als wichtige Daten in schnellem Speicher ablegen. Dabei kommt es darauf an, dass man Daten priorisiert und sie entsprechend abspeichert. Ein Beispiel dafür:

Haben Sie auch schon in einem Webshop etwas basierend auf einer Empfehlung bestellen wollen? Eine Empfehlung, die mir der Webshop aufgrund meiner Interessen gegeben hat, um nach dem mühseligen Eingeben meiner Daten feststellen zu müssen, dass die Empfehlung gar nicht lieferbar ist?

Wären die Daten sinnvoll priorisiert und In-Memory gespeichert worden, wäre das nicht passiert, und ich als Kunde hätte mich nicht geärgert.In diesem Beispiel geht es um eine neue Technologie, die Bestandteil von SQL Server 2014 ist: die In-Memory-OLTP-Technologie. OLTP steht dabei für Online Transaction Processing. Sind die Lagerbestände In-Memory – also fast in Echtzeit – verfügbar, werden Empfehlungen nur gemacht, wenn der Artikel auch verfügbar ist und ich diesen sofort bestellen kann.

Eine andere Möglichkeit, Big Data zu beschleunigen, sind Clustered-Columnstore-Indizes, die ebenfalls SQL Server 2014 ermöglicht. Dabei werden Daten nicht mehr seitenorientiert, sondern vollständig spaltenorientiert abgelegt. Der grosse Vorteil: Mit SQL Server 2014 lassen sich die Tabellen nach wie vor verändern. Ausserdem kann voll von der sehr hohen Komprimierung profitiert werden, die den Platzbedarf um Faktoren fünf bis 15 senkt. Abfragen können mit dem Clustered-Columnstore-Index von massiven Performance-Vorteilen profitieren.

Sie haben den neuen SQL Server 2014 bereits angesprochen. Welche Neuerungen kommen ausserdem und was haben KMU davon?

Ohne Priorisierung würde ich die folgenden auch für KMU relevanten Neuerungen mit SQL Server 2014 hervorheben:

  • Verbesserungen der Hochverfügbarkeit für wichtige Applikationen,
  • Erweiterungen im Sicherheitsbereich beispielsweise durch „Separation of Duties“, die Trennung von Rechten und
  • massive Verbesserungen der Geschwindigkeit beim Datenzugriff aufgrund vom Column Store Index.

Bereits gesprochen habe ich von der In-Memory OLTP, die mit SQL Server 2014 neu eingeführt wurde. Sie stellt ein speicheroptimiertes Datenbankmodul dar, das in das SQL Server-Modul integriert und für OLTP optimiert wurde.

Nicht zuletzt möchte ich auf die umfangreiche Business-Intelligence-Funktionalität in SQL Server 2014 hinweisen, die gerade im Zusammenhang mit SharePoint Server, Office 365 und Excel als Frontend eine professionelle Infrastruktur für Business-Intelligence darstellt – und das Out of the Box, ohne zusätzliche Kosten.

Wie sieht es mit den Möglichkeiten aus, die Leistung von SQL Server 2014 per Internet, also aus der Cloud zu nutzen?

Microsoft verfolgt in der Produktentwicklung konsequent die Einbindung von Cloud-Services. SQL Server kann komplett in der Cloud als IaaS, als Infrastructure as a Service in verschiedensten Ausprägungen oder als Microsoft Azure-SQL-Datenbank – bislang unter dem Namen SQL Azure – betrieben werden. Microsoft Azure-SQL-Datenbank ist ein vollständig verwalteter, relationaler Datenbankdienst, der flexible Verwaltbarkeit, integrierte hohe Verfügbarkeit und eine umfassende Skalierung unterstützt. Ausserdem bietet SQL Server 2014 die Möglichkeit, Cloud BackUp und Cloud DisasterRecovery zu nutzen. Dies sind nicht nur aus Kostengründen interessante Möglichkeiten, sondern führen auch zu erweiterter Sicherheit und Hochverfügbarkeit. Grundsätzlich können fast alle Workloads in der Cloud betrieben werden.

Weitere Informationen

Jetzt den täglichen PCtipp-Newsletter abonnieren.


    Kommentare

    Keine Kommentare

    Sie müssen eingeloggt sein, um Kommentare zu verfassen.

    Weitere Artikel aus dem Ressort