Microsoft Azure Stream Analytics ist eine Engine für die Verarbeitung von Datenströmen in Echtzeit. Sie bietet die Möglichkeit große Datenmengen die in einer hohen Geschwindigkeit eintreffen in Echtzeit abzufragen, zu filtern, mit weiteren Daten anzureichern, mit Hilfe von ML Modellen Muster und Anomalien zu erkennen und auf diese zu reagieren.
Daten und -quellen sind die Basis für Berichte und Dasbhboards. Normalerweise gibt es in Microsoft Power BI jede Menge Konnektoren für Datenquellen (siehe auch Artikel Power BI-Datenquellen in Microsoft Docs), aber kurioserweise gibt es keinen Konnektor für MongoDB. Entsprechend schwierig bzw. kompliziert hat sich die Anbindung gestaltet. Die Anbindung habe ich hier mit allen notwendigen Schritten dokumentiert.
Wir haben im vorherigen Artikel ein simuliertes IoT-Gerät in C# entwickelt und eine automatische Provisionierung des IoT-Gerätes mit Hilfe des Azure Device Provisioning Services für eine IoT-Instanz vorgenommen. Um die Linie beizubehalten, werden wir nun neben dem simulierten IoT-Gerät ein echtes ESP32 Mikrocontroller-Board nutzen um diesen wiederum mit Hilfe des Azure Device Provisioning Services automatisch zu provisionieren.
Für die Entwicklung von Mikrocontroller-Projekten und zum Basteln eignet sich mit Sicherheit die Arduino IDE. Bei größeren Projekten ist es sinnvoll hier auf Atmel Studio, Microsoft Visual Studio Code oder Eclipse zu gehen. Ich werde zum einen mit die Espressif ESP-IDF Tools aufsetzen und im Anschluß mit Microsoft Visual Studio Code weitermachen, da ich seit […]
Um die Funktion des zuvor angelegten Device Provisioning Service zu testen, werden wir zum einen ein simuliertes IoT-Gerät verwenden und anschließend im nächsten Artikel auch einen ESP32. Der Code ist einfach aufgebaut aufgebaut und überschaubar. Es ist sehr einfach möglich den Code von oben nach unten zu lesen und zu verstehen was dort passiert. Ich werde die wichtigsten Parameter erklären die gesetzt werden müssen und wo man diese im Azure Portal erhält. Anschließend werde ich kurz die einzelnen Code-Abschnitte erklären.
Der Microsoft Azure Device Provisioning Service ist ein Hilfsdienst der die JIT-Bereitstellung im richtigen IoT-Hub ohne manuelles eingreifen ermöglicht. Der Device Provisioning Service ermöglicht die skalierbare und sichere Bereitstellung von Millionen von Geräten.
Für die Microsoft Azure Beispiele werde ich in Zukunft den Espressif ESP32 und das MXChip AZ3166 IOT Developer Kit Board verwenden. Der Grund ist, dass der Azure IoT Hub Support für den ESP32, aber vor allem für den MX Chip, viel robuster und in der Anwendung und Programmierung viel einfacher ist. Zudem ist der ESP32, genauso wie der MXChip AZ3166, Azure Zertifiziert!
Ich zeige euch wie man Apache Kafka für einfache Entwicklungszwecke auf einem Microsoft Windows Server 2019 installiert.
IoT Geräte (Internet of Things) sind heute allgegenwärtig und die Einsatzszenarien sind nahezu unendlich. Für jeden Zweck gibt es das passende IoT Gerät oder den Sensor der das Gerät mit den gewünschten Daten versorgt. Ich selber bin gelernter Elektroniker, komme ursprünglich aus der Softwareentwicklung und meine Fokusthemen seit Jahren sind Data & Analytics und AI. Also was liegt näher als das Thema IoT vollumfänglich vom Gerät bis zur Endanwender-Lösung zu betrachten?
Der Azure IoT Hub ist ein in der Microsoft Azure Cloud gehosteter Managed Service. Es stellt den zentralen Message Hub für die bi-direktionale Kommunikation zwischen der IoT-Lösung und dem IoT Gerät dar. Unterstützt wird die Gerät-zu-Cloud als auch die Cloud-zu-Geräte Kommunikation.
Damit IoT Gerät mit dem Azure IoT Kommunizieren können, müssen sie zuerst im IoT Hub erstellt werden. In diesem Artikel zeige ich euch wie man ein IoT Gerät im IoT Hub erstellt.
Damit wir die IoT Daten persistieren können, verwenden wir einen Data Lake Gen 2. Um einen Data Lake erstellen zu können, benötigen wir ein Azure Speicherkonto.
Ein Nachrichtenrouting im IoT Hub ermöglicht es, Nachrichten von den Geräten in die Cloud zu senden. Das Ziel kann dabei Azure Storage, Azure Event Hubs oder ein Azure Service Bus sein. Zudem werden wir mit einem simulierten Gerät Daten an diesen IoT Hub senden und auch aus dieser wieder die gesendeten Daten auslesen.
Wir werden mittels eines in C# simulierten Gerätes sowohl den IoT Hub als auch das Nachrichtenrouting in dem Data Lake testen. Somit stellen wir sicher, dass die ersten Komponenten in Azure sauber funktionieren und von aussen ansprechbar sind. So können wir grundsätzliche Fehler frühzeitig ausschließen.
Der ESP8266 von Espressif Systems (Shanghai) ist ein programmierbarer WLAN-SoC mit UART- und SPI-Schnittstelle und integriertem TCP/IP Stack. Die Datenerfassung mit Hilfe von Sensoren und die Kommunikation mit der Cloud gelingt mit dem ESP8266 sehr einfach. Doch bevor wir irgendetwas in die Cloud senden können, müssen wir uns mit dem Internet verbinden!
Nachdem wir Oracle erfolgreich installiert und erfolgreich auch eine neue Datenbank erstellt haben, ist es nun an der Zeit den Oracle Developer zu installieren um die Datenbank administrieren zu können.
Nachdem wir zuvor erfolgreich Oracle 19c auf einer Windows Umgebung installiert haben, zeige ich euch in diesem Beitrag wie man eine neue Oracle 19c Datenbank erstellt.
Oracle Datenbanken sind eigentlich nicht meins aber im Enterprise Umfeld kommt man meist um Oracle nicht herum. Für die Evaluierung von Lösungs-Architekturen benötigt man meist eine Dev-Umgebung. In diesem Beitrag werden wir Oracle 19c auf Microsoft Windows installieren.
In Zeiten den Pandemie, wo viele Menschen aus dem Home Office arbeiten, ist eine gute technische Ausstattung sehr wichtig. Damit hat man nicht nur die Möglichkeit gut mit seinen Kollegen und Mitarbeitern zu kommunizieren, sondern auch einen YouTube-Kanal zu betreiben oder ein professionelles Webcast zu streamen und aufzuzeichnen. In diesem Beitrag stelle ich euch mein Home Office Setup vor.
In der Zeit zwischen 2003 und 2013 habe ich meinen ersten Blog gehabt. Der Fokus des Blogs lag damals auf der Microsoft C# und Microsoft SharePoint Entwicklung. Nun, ein paar Jahre später, habe ich mich erneut dazu entschlossen zu bloggen. Diesmal liegt der Focus jedoch auf den Themen Data & Analytics, AI und IoT.