GenAI im Data-&Analytics-Umfeld

GenAI im Data-&Analytics-Umfeld

ID: 2241714

Was heute wirklich funktioniert und was nicht




(PresseBox) - Generative AI gehört derzeit zu den meistdiskutierten Themen im Technologieumfeld. Neue Large Language Models, Agentenarchitekturen und AI gestützte Entwicklungswerkzeuge versprechen enorme Produktivitätsgewinne. Gleichzeitig wächst in vielen Organisationen die Unsicherheit: Welche Anwendungen liefern bereits heute echten Mehrwert und wo handelt es sich noch um experimentelle Technologien? 

Gerade im Data-&-Analytics-Bereich ist diese Frage besonders relevant. Datenplattformen, BI-Lösungen und Analytics-Projekte sind zentrale Bausteine moderner Unternehmen. Entsprechend groß ist das Interesse daran, Generative AI sinnvoll in diese Umgebungen zu integrieren. Doch die Praxis zeigt: Zwischen Vision und realer Umsetzung besteht häufig eine erhebliche Lücke.

Einblicke aus der SQL-Konferenz in Hanau

Mit genau dieser Fragestellung beschäftigten sich Marco Nielinger und Felix Möller, Management Consultants bei noventum consulting, auf der SQL Konferenz in Hanau. In ihrem Vortrag „GenAI for Data & Analytics: What’s hotand what’s not?“ analysierten sie aktuelle Entwicklungen im Microsoft-Data-Ökosystem und zeigten anhand konkreter Szenarien, wo Generative AI bereits heute sinnvoll eingesetzt werden kann. Der Vortrag stieß auf großes Interesse in der Community, weil er nicht nur technologische Trends beleuchtete, sondern auch konkrete Erfahrungen aus Data-Analytics-Projekten einbezog. Besonders überzeugend war dabei die Kombination aus realen Projektbeispielen, Live-Demonstrationen und einer sehr klaren Einordnung der aktuellen Möglichkeiten von Generative AI. Im Mittelpunkt standen mehrere praktische Anwendungsszenarien.

USE CASE 1: GENERIERUNG EINES DAX-STATEMENTS MIT CHATGPT OHNE KONTEXT

Ein sehr anschauliches Einstiegsbeispiel aus dem Vortrag zeigt, wie Large Language Models Entwickler bei typischen Aufgaben im Analytics-Alltag unterstützen können und wo ihre Grenzen liegen. Ausgangspunkt ist eine klassische Situation aus der BI-Praxis. Ein Entwickler arbeitet mit einem SSAS Tabular Datenmodell, das aus zahlreichen Faktentabellen und einer großen Anzahl von Dimensionstabellen besteht. Für einen Paginated Report wird eine DAX-Abfrage benötigt, die Daten aus mehreren Dimensionen mit einer Faktentabelle kombiniert und anschließend für den Report bereitstellt. Der Entwickler formuliert daher folgenden Prompt in ChatGPT:



„Ich bin Consultant für Power BI. Wir verwenden SSAS Tabular und haben dort ein großes Datenmodell mit mehreren Dutzend Fakten und über hundert Dimensionstabellen. Ich möchte jetzt einen Paginated Report auf Basis des SSAS-Datenmodells erzeugen. Dieser soll Daten aus Dimensionen dim_Kunde und dim_Produkt und Fakten der fact_Sales in einer Query bereitstellen. Bitte erzeuge mir eine derartige DAX Query.“

ChatGPT generiert daraufhin tatsächlich eine vollständige DAX-Abfrage. Das Modell erstellt beispielsweise eine Abfrage, die grundsätzlich für einen Reporting-Use-Case geeignet ist. Gerade für Entwickler wird in diesem Moment sehr deutlich, wie schnell generative Modelle heute Code Fragmente erzeugen können. Auf den ersten Blick wirkt das Ergebnis durchaus plausibel. Die generierte Abfrage zeigt typische Muster einer DAX Query und könnte als Grundlage für eine weitere Entwicklung dienen.  In der Praxis zeigt sich jedoch schnell die zentrale Einschränkung dieses Ansatzes. ChatGPT kennt das tatsächliche Datenmodell nicht. Die generierte Query basiert lediglich auf Annahmen über mögliche Tabellen- und Spaltennamen. Entsprechend existieren viele der verwendeten Felder im realen Modell gar nicht. Die Abfrage ist damit zwar syntaktisch korrekt, lässt sich jedoch im DAX View von Power BI nicht ausführen, weil die referenzierten Spalten und Tabellen nicht existieren. Das Modell erzeugt also im Grunde ein Template für eine mögliche Query, aber keine tatsächlich lauffähige Implementierung.

Im Vortrag wurde dieses Beispiel bewusst gewählt, um eine zentrale Eigenschaft generativer Modelle zu verdeutlichen: Ohne Kontext liefern Large Language Models oft erstaunlich gute generische Vorschläge. Sie können jedoch nicht wissen, wie das konkrete Datenmodell tatsächlich aufgebaut ist. Die Referenten Felix Möller und Marco Nielinger fassten die Erkenntnis aus diesem Beispiel deshalb klar zusammen:

"Generative AI kann bereits ohne Integration sehr hilfreich sein, etwa zum Lernen, für Inspiration oder zum schnellen Erzeugen von Code-Snippets. Für produktive Anwendungen im Data-&-Analytics-Umfeld ist jedoch zusätzlicher Kontext entscheidend. Erst wenn ein Modell Zugriff auf Informationen über Tabellen, Spalten, Beziehungen oder Measures erhält, kann es tatsächlich korrekte und direkt ausführbare Abfragen erzeugen."

Hier können Sie weiterlesen: https://www.noventum.de/de/data-analytics/nc360-artikel/genai-im-data-analytics-umfeld.html 

Die noventum consulting GmbH ist eine international tätige IT Management Beratung.

1996 in Münster gegründet, ist noventum heute mit über 120 Mitarbeiter:innen in Münster und Düsseldorf vertreten. In Luxemburg arbeitet ein selbständiges noventum-Partnerunternehmen.

Geschäftsführender Gesellschafter ist Uwe Rotermund.

noventum consulting unterstützt seine Kunden bei ihren IT-Herausforderungen und in ihrem Bemühen um eine moderne Unternehmenskultur.

Kunden sind Dax-Konzerne sowie mittelständische Unternehmen und Organisationen mit großer IT-Infrastruktur.

Weitere Infos zu dieser Pressemeldung:
Unternehmensinformation / Kurzprofil:

Die noventum consulting GmbH ist eine international tätige IT Management Beratung.
1996 in Münster gegründet, ist noventum heute mit über 120 Mitarbeiter:innen in Münster und Düsseldorf vertreten. In Luxemburg arbeitet ein selbständiges noventum-Partnerunternehmen.
Geschäftsführender Gesellschafter ist Uwe Rotermund.
noventum consulting unterstützt seine Kunden bei ihren IT-Herausforderungen und in ihrem Bemühen um eine moderne Unternehmenskultur.
Kunden sind Dax-Konzerne sowie mittelständische Unternehmen und Organisationen mit großer IT-Infrastruktur.



drucken  als PDF  Künstliche Intelligenz in Kommunalverwaltungen: TÜV Rheinland bietet neuen Online-Check zur KI-Reife
Bereitgestellt von Benutzer: PresseBox
Datum: 31.03.2026 - 13:12 Uhr
Sprache: Deutsch
News-ID 2241714
Anzahl Zeichen: 5823

Kontakt-Informationen:
Ansprechpartner: Lilith JudithFelix MöllerMarco Nielinger
Stadt:

Münster


Telefon: +49 2506 93020+49 2506 93020

Kategorie:

Dienstleistung



Diese Pressemitteilung wurde bisher 93 mal aufgerufen.


Die Pressemitteilung mit dem Titel:
"GenAI im Data-&Analytics-Umfeld"
steht unter der journalistisch-redaktionellen Verantwortung von

noventum consulting GmbH (Nachricht senden)

Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).


Alle Meldungen von noventum consulting GmbH


 

Werbung



Facebook

Sponsoren

foodir.org The food directory für Deutschland
News zu Snacks finden Sie auf Snackeo.
Informationen für Feinsnacker finden Sie hier.

Firmenverzeichniss

Firmen die firmenpresse für ihre Pressearbeit erfolgreich nutzen
1 2 3 4 5 6 7 8 9 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z