Generative KI darf kein reines Zukunftsthema sein
Autor: Peter van der Putten, Director AI Lab bei Pegasystems

(firmenpresse) - 27. Juni 2023 – Anwendungen wie ChatGPT und Google Bard geben einen Ausblick darauf, welches Potenzial in der KI-Technologie steckt. Gleichermaßen offenbaren sich die Risiken generativer KI. Experten sind alarmiert und fordern nun, die Entwicklung zukünftig strenger zu regulieren. Das ist jedoch viel zu langfristig gedacht.
Der Lärm rund um generative KI wird immer intensiver, die Diskussionen politischer. Es fällt nicht schwer einzusehen, dass eine Steuerung der Entwicklung solcher Technologien notwendig ist. Dennoch sollten wir uns im Klaren darüber sein, dass die aktuellen Erwägungen über künftige existenzielle Risiken den Blick von der Gegenwart ablenken. Bereits heute sind KI-Systeme weit verbreitet und wir müssen die mit ihnen verbundenen Möglichkeiten, Sicherheitsbedenken und Grenzen bedenken. Genau darauf sollten wir jetzt unseren Fokus legen und nicht nur auf das, was die Zukunft eventuell bereithält.
Glücklicherweise gibt es bereits viele Vorstöße im Bereich der vertrauenswürdigen Nutzung von KI sowie deren Kontrolle – sowohl aus technischer als auch aus regulatorischer Sicht. Technologisch zählen dazu etwa Methoden zur Erkennung und Beseitigung von Vorurteilen bei automatisierten Entscheidungen. Auch Ansätze, die die Transparenz fördern, gibt es. Bestimmte KIs stellen Erklärungen dafür bereit, wie sie Inhalte oder Antworten auf Fragen generieren.
Diese rein technischen Methoden ergänzen regulatorische seitens der Politik. Aktuell diskutieren Politiker in der EU, den USA und dem Vereinigten Königreich Gesetzesentwürfe für die KI-Nutzung. In diesem Zusammenhang gebührt insbesondere der EU Lob, da sie auf dem Weg zu einer umfassenden KI-Regulierung eine Vorreiterrolle einnimmt: Am 14. Juni 2023 hat das Europäische Parlament dem Entwurf für den EU AI Act zugestimmt, dessen erste Fassung bereits vor zwei Jahren vorgeschlagen wurde. Um in Kraft zu treten, müssen nun noch die Europäische Kommission und der Rat der Europäischen Union darüber verhandeln und ihn dann bestätigen. Das ist wichtig und richtig, denn KI ist kein Zukunftsthema, sondern bereits in der Mitte der Gesellschaft angekommen. Was wir jetzt verschlafen, holen wir bei dieser dynamischen und schnelllebigen Technologie später nicht mehr auf.
Dieses Statement und das Bild in höherer Auflösung können unter https://brandmacher.de/company/pegasystems abgerufen werden.
Weitere Infos zu dieser Pressemeldung:
Unternehmensinformation / Kurzprofil:
Die leistungsstarke Low-Code-Plattform von Pegasystems (NASDAQ: PEGA) macht führende Unternehmen weltweit agiler, so dass sie schneller auf Veränderungen reagieren können. Durch KI-gestützte Entscheidungsfindung und Workflow-Automatisierung lösen Anwender vielfältige geschäftliche Herausforderungen – von der Optimierung des Kundenservice über die Automatisierung von Dienstleistungen bis hin zur Steigerung der betrieblichen Effizienz. Pegasystems entwickelt seit 1983 seine skalierbare und flexible Architektur ständig weiter, um Unternehmen dabei zu helfen, die heutigen Kundenanforderungen zu erfüllen und sich gleichzeitig kontinuierlich auf die Zukunft vorzubereiten. Weitere Informationen sind unter www.pega.com/de verfügbar.
Natascha Hass
Brandmacher GmbH
Sendlinger-Tor-Platz 6
80336 München
Telefon: 089-59997-700
natascha.hass(at)brandmacher.de
Datum: 27.06.2023 - 17:36 Uhr
Sprache: Deutsch
News-ID 2052725
Anzahl Zeichen: 2548
Kontakt-Informationen:
Ansprechpartner: Natascha Hass
Stadt:
München
Telefon: +49-89-59997-700
Kategorie:
Internet
Meldungsart: Unternehmensinfos
Versandart: Veröffentlichung
Freigabedatum: 27.06.2023
Diese Pressemitteilung wurde bisher 283 mal aufgerufen.
Die Pressemitteilung mit dem Titel:
"Generative KI darf kein reines Zukunftsthema sein"
steht unter der journalistisch-redaktionellen Verantwortung von
Pegasystems (Nachricht senden)
Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).