
Beam AI hat eine unabhängige Bias-Prüfung für sein Agentic AI System gemäß dem lokalen Gesetz 144 von New York City abgeschlossen, durchgeführt und verifiziert von Asenion (ehemals Fairly AI). Die Ergebnisse sind da: Unsere Plattform erfüllt die Anforderungen an Fairness und Compliance.
Wir sind stolz darauf und denken, dass dies für alle wichtig ist, die KI-Plattformen für den Unternehmenseinsatz bewerten.
Was ist NYC LL144?
Das lokale Gesetz 144 von New York City, das seit Juli 2023 in Kraft ist, ist eines der ersten Gesetze in den Vereinigten Staaten, das unabhängige Bias-Prüfungen von automatisierten Entscheidungswerkzeugen verlangt. Es gilt für KI-Systeme, die in beschäftigungsbezogenen Entscheidungen eingesetzt werden, wie das Screening, Scoring oder Ranking von Kandidaten.
Das Gesetz fordert:
Eine unabhängige Bias-Prüfung, durchgeführt von einem qualifizierten externen Prüfer. Die Prüfung bewertet unterschiedliche Auswirkungen auf Grundlage von Rasse, Ethnie und Geschlecht. Die Ergebnisse müssen öffentlich zugänglich gemacht werden. Und die Prüfung muss jährlich erneuert werden.
Für Unternehmens-KI hat LL144 einen wichtigen Präzedenzfall geschaffen. Es hat das Gespräch von "Wir nehmen Fairness ernst" hin zu "Beweisen Sie es" verschoben.
Warum das für unsere Kunden wichtig ist
Wenn Sie KI-Agenten über HR-, Compliance- oder kundenorientierte Workflows betreiben, ist die Frage nicht, ob Regulierung kommt. Sie ist bereits da.
LL144 ist eine US-Regulierung, fügt sich jedoch in ein breiteres globales Muster ein. Der EU AI Act klassifiziert Beschäftigungs-KI als hochriskant und erfordert Konformitätsbewertungen und kontinuierliches Monitoring. ISO/IEC 42001 bietet einen Rahmen für Managementsysteme für verantwortungsvolles AI-Governance. Diese Standards konvergieren und die Anforderungen steigen.
Für Beam-Kunden bedeutet das Bestehen dieser Prüfung:
Unabhängige Verifizierung, dass unser agentisches KI-System auf Bias in geschützten Kategorien getestet wurde.
Bereitschaft zur Compliance für Organisationen, die in New York City tätig sind oder mit Kunden aus NYC zusammenarbeiten.
Und eine Grundlage für die Erfüllung umfassenderer regulatorischer Anforderungen, da KI-Gesetze über Länder hinweg expandieren.
Dies ist kein einmaliger Aufwand. Verantwortungsvolle KI erfordert kontinuierliche Prüfungen, und wir planen, diese Zertifizierung beizubehalten, während sich das regulatorische Umfeld weiterentwickelt.
Unser Ansatz zu vertrauenswürdiger KI
Die Plattformarchitektur von Beam wurde unter Berücksichtigung der Prüfbarkeit entwickelt. Jede Entscheidung, die ein KI-Agent trifft, ist nachvollziehbar. Logik- und Datenflüsse sind transparent. Das machte den LL144-Prüfungsprozess unkompliziert: Wenn Ihr System auf Transparenz ausgelegt ist, ist das Beweisen von Fairness eine natürliche Weiterentwicklung.
Wir sind auch GDPR-konform, ISO 27001-zertifiziert und SOC 2 bestätigen, mit Optionen für EU-Datenresidenz, private Cloud und lokale Implementierung. Die LL144-Bias-Prüfung fügt diesem Fundament eine weitere Ebene hinzu.

Über Asenion
Die Prüfung wurde von Asenion (ehemals Fairly AI und anch.AI) durchgeführt, einem Unternehmen, das sich auf AI-Governance, Bias-Prüfungen und Compliance spezialisiert hat. Beam AI wurde dem AI Trust Registry von Asenion hinzugefügt, einem öffentlichen Verzeichnis von Organisationen, die unabhängige AI-Prüfungen abgeschlossen haben.
Wir danken dem Asenion-Team für einen gründlichen und kooperativen Prozess.
Was als nächstes kommt
Verantwortungsvolle KI ist ein fortlaufendes Engagement, kein Meilenstein, den man passiert und vergisst. Wir werden weiterhin in Fairness-Tests, Compliance-Bereitschaft und transparente KI investieren, während sich die Regulierung in den USA, Europa und darüber hinaus entwickelt.
Wenn Sie KI-Plattformen bewerten und Compliance auf Ihrer Liste steht, führen wir Sie gerne durch, wie Beam damit umgeht.





