Please Talk Data To Me – Folge 10

Die Folge 10 des Data Platform Podcasts  „Please Talk Data To Me“ wurde in Darmstadt nicht nur als Audio, sondern auch als Video aufgezeichnet.

Wir starten mit Power von der SQL Konferenz und haben uns in die heutige Sendung zwei richtige Powerfrauen eingeladen, die Gabi und die Sandra. Die stellen Ihre Powerthemen mit viel Elan und Power vor. Nachdem wir uns dann am SQL Saturday Malaysia und der Automatisierung von Azure Data Factory über Biml völlig ausgepowert haben, starten wir mit neuer Power in die weiteren Themen des Podcasts, nur um herauszufinden dass wir die Power haben über weitere powerfulle Themen zu reden. Mit einem Powerslide landen wir dann am Ende beim Power-Movie Submerged. Power on Wayne, Power to the People!

Die Shownotes zur Folge 10 findet Ihr hier.

DevOps for the DBA

Grant Fritchey is talking about Devops for the DBA. Far too many people responsible for production data management systems are reluctant to embrace DevOps. The concepts behind DevOps can appear to be contrary to many of the established best practices for securing, maintaining and operating a reliable database. However, there is nothing inherent to a well-designed DevOps process that would preclude ensuring that the information stored within your data management system is completely protected. This session will examine the various methods and approaches available to the data professional to both embrace a DevOps approach to building, deploying, maintaining and managing their databases and protect those databases just as well as they ever have been. We will explore practices and plans that can be pursued using a variety of tooling and processes to provide DevOps methodologies to the systems under your control. You can embrace DevOps and protect your data.

Data Integration through Data Virtualisation

Cathrine Willemsen is talking about Data Integration through Data Virtualisation. Data virtualization is an alternative to Extract, Transform and Load (ETL) processes. It handles the complexity of integrating different data sources and formats without requiring you to replicate or move the data itself. Save time, minimize effort, and eliminate duplicate data by creating a virtual data layer using PolyBase in SQL Server. 
In this session, we will first go through fundamental PolyBase concepts such as external data sources and external tables. Then, we will look at the PolyBase improvements in SQL Server 2019. Finally, we will create a virtual data layer that accesses and integrates both structured and unstructured data from different sources. Along the way, we will cover lessons learned, best practices, and known limitations.

Monsters of Data 2019


In der diesjährigen Keynote gab es bei der SQL Konferenz 2019 die Monsters of Data, bei dem sechs Experten aus der Community in einem Lightning Talk erklären welche Funktionen sie im SQL Server gut oder schlecht finden. Im Detail hören Sie

Dr. Benjamin Kettner – FAQs vor denen ich mich fürchtete
Im Beitrag von Dr. Benjamin Kettner geht es um das Azure Abrechungsmodell und wie man berechnen kann welche Ressource was kostet.

Bjön Peters – Geld in Azure mit PowerShell sparen
Björn Peters erklärt, wie er in PowerShell Geld sparen kann indem er die Datenbank für eine Applikation über Nacht automatisch wegschmeisst (natürlich nach einem Backup) und morgens wiederherstellt.

Gabi Münster – Power BI mit vielen Millionen Datensätzen
Gabi Münster stellt vor, wie man ein Datenmodell in Analysis Services für sehr große Datenmengen mit Direct Query aus einem Azure Data Warehouse erstellt. Key Feature hier sind die neuen Aggregations

Lars Platzdasch – SharePoint SQL Server Basics
Lars Platzdasch stellt als worst Feature den Tuning Advisor vor und geht dann darauf ein, wie man einen SQL Server für die Bereitstellung von SharePoint optimiert.

Stefan Kirner – Dungeons & Dragons, das Data Monster und die Azure Data Factory
Stefan Kirner importiert die Daten von 1300 Dungeons & Dragons Monster mit Hilfe der Data Flows innerhalb der Azure Data Fatory in Azure.

Markus Raatz – Markus ist verliebt in Kusto
Markus Raatz zeigt Kusto, einen Big Data Server, der extra von Microsoft für die Verarbeitung von großen Datenmengen optimiert wurde und nicht auf bisherigen Linux Technologien basiert. Außerdem gibt es eine schnelle Einführung in KSQL die Abfragesprache von Kusto.