Wie wir Unternehmen dabei unterstützen, vertrauenswürdige KI schneller zu entwickeln

Generative KI transformiert viele Industrien. Unternehmen müssen sich darauf einstellen, sichere und zuverlässige KI-Tools zu erstellen und bereitzustellen, während sich die Technologie kontinuierlich weiterentwickelt. Führungskräfte sehen sich mit Risiken wie der Generierung falscher oder schädlicher Informationen, dem Leaken sensibler Daten, Angriffen von Hackern oder Verstössen gegen Datenschutzgesetze konfrontiert. Oft fehlt es ihnen an den Mitteln, diese Risiken zu bewältigen.

„Organisationen legen Wert auf Sicherheit und Qualität sowie die Performance ihrer KI-Anwendungen“, stellt Sarah Bird, Chief Product Officer of Responsible AI bei Microsoft, klar. „Aber viele wissen nicht, was sie tun müssen, um ihre KI vertrauenswürdig zu machen, oder sie haben nicht die passenden Tools dafür.“

Microsoft möchte diese Lücke schliessen, indem es Tools und Services anbietet, die Entwickler*innen helfen, vertrauenswürdige KI-Systeme zu entwickeln und bereitzustellen. Diese Systeme sind auf Sicherheit, Schutz und Datenschutz ausgelegt. Die Tools haben bereits vielen Organisationen dabei geholfen, Technologien in komplexen und stark regulierten Umfeldern einzuführen: von einem KI-Assistenten, der medizinische Patientenakten zusammenfasst, bis hin zu einem KI-Chatbot, der der bei Steuerfragen hilft.

Der Ansatz hilft Entwickler*innen auch, effizienter zu arbeiten, so Mehrnoosh Sameki, Responsible AI Principal Product Manager bei Microsoft.

Dieser Beitrag ist Teil der Building AI Responsibly-Reihe von Microsoft. Darin werden die zentralen Herausforderungen bei der Implementierung von KI beleuchtet und gezeigt, wie Microsoft diesen mit verantwortungsvollen KI-Praktiken und Tools begegnet.

„Es ist sehr einfach, eine erste Version einer generativen KI-Anwendung zu erstellen. Aber bevor sie live geht, verlangsamt sich der Prozess drastisch, weil die Leute Angst vor möglichen Risiken haben oder unsicher sind, ob sie die Anforderungen und Vorschriften einhalten“, sagt Sameki. „Diese Tools beschleunigen die Implementierung und schaffen Vertrauen während des Testens und der Absicherung der Anwendung.“

Die Tools sind Teil einer ganzheitlichen Methode, die Microsoft bereitstellt, um KI verantwortungsvoll zu entwickeln. Diese Methode basiert auf der eigenen Erfahrung mit der Identifizierung, Messung, Verwaltung und Überwachung von Risiken in Microsoft-Produkten – und der Sicherstellung, dass jeder Schritt durchgeführt wird.

Als generative KI erstmals aufkam, versammelte Microsoft Expert*innen für Sicherheit, Schutz, Fairness und andere Bereiche, um grundlegende Risiken zu identifizieren und Dokumentationen zu teilen. Dieser Prozess wird auch heute noch angesichts neuer Technologien fortgeführt. Darauf aufbauend haben wir einen umfassenden Ansatz zur Risikominderung entwickelt sowie Tools, um diesen Ansatz in die Praxis umzusetzen.

Dazu gehört die Arbeit eines AI Red Team, das neue Risiken wie Halluzinationen und Prompt Attacks identifiziert. Ausserdem beschäftigen wir Forscher*innen, die sich mit Deepfakes befassen. Wir arbeiten mit Messungsexperten zusammen, die ein System zur Bewertung von KI entwickelt haben, sowie mit  Ingenieur*innen, die Sicherheitsmassnahmen implementieren und verfeinern.

Die Tools umfassen das Open-Source-Framework PyRIT für Red Teams, um Risiken zu identifizieren, automatisierte Bewertungen in Azure AI Foundry zur kontinuierlichen Risikoüberwachung sowie Azure AI Content Safety zur Erkennung und Blockierung schädlicher Eingaben und Ausgaben.

Microsoft veröffentlicht zudem Best Practices, um die Auswahl des richtigen Modells für eine Anwendung, die Gestaltung von Systemnachrichten und die User-Experience-Optimierung zu unterstützen. Das ist Teil des Aufbaus eines robusten KI-Sicherheitssystems.

„Wir setzen auf einen Defense-in-Depth-Ansatz mit vielen Schutzebenen gegen verschiedene Arten von Risiken und geben den Menschen alle Bausteine, um diese Arbeit selbst zu leisten“, sagt Bird.

Für ein Steuerberatungsunternehmen, das einen Guidance-Chatbot entwickelt hat, war die Fähigkeit, KI-Halluzinationen zu korrigieren, besonders wichtig. Nur so können genaue Informationen bereitgestellt werden, erklärt Sameki. Das Unternehmen hat seinen Chatbot zudem sicherer gemacht, indem es Filter gegen Prompt Attacks, schädliche Inhalte und personenbezogene Daten einsetzt.

„Dass unsere eigenen KI-Systeme vertrauenswürdig sind, ist für uns essenziell. Deshalb wollen wir unsere Kunden befähigen, dasselbe zu tun“, erklärt Sarah Bird, Chief Product Officer of Responsible AI.

Sameki ergänzt, dass die Gesundheitsorganisation, die den Zusammenfassungs-Assistenten entwickelt hat, besonders an Tools zur Verbesserung der Genauigkeit und zur Erstellung eines benutzerdefinierten Filters interessiert war, um sicherzustellen, dass wichtige Informationen nicht ausgelassen werden.

„Unsere Tools helfen als Debugging-Werkzeuge, damit Unternehmen ihre Anwendungen verbessern können“, sagt Sameki. „Beide Unternehmen konnten ihre Anwendungen so schneller und mit deutlich mehr Vertrauen bereitstellen.“

Microsoft unterstützt Organisationen auch dabei, ihre KI-Governance zu verbessern. Das System verfolgt und gibt wichtige Details zur Entwicklung, Implementierung und zum Betrieb einer Anwendung oder eines Modells weiter. In der privaten Vorschau von Azure AI Foundry verfügbar, bieten AI Reports für Unternehmen eine einheitliche Plattform zur Zusammenarbeit, zur Einhaltung wachsender KI-Regulierungen sowie zur Dokumentation von Evaluierungsinformationen, potenziellen Risiken und deren Minderung.

„Es ist schwer, sicherzustellen, dass alle Bausteine funktionieren, wenn man nicht die richtige Governance implementiert hat“, sagt Bird. „Wir stellen sicher, dass Microsofts KI-Systeme compliant sind, und teilen Best Practices, Tools und Technologien, die Kunden auf ihrem Compliance-Weg helfen.“

Diese Arbeit ist Teil von Microsofts Ziel, Menschen zu helfen, mehr mit KI zu erreichen, und Erkenntnisse zu teilen, die die Arbeit für alle erleichtern.

Mehr über Microsofts Arbeit im Bereich Responsible AI..


Eine Illustration von Makeshift Studios / Rocio Galarza
Ein Beitrag von Vanessa Ho

Related Posts