Startseite
Governance & Compliance

Code of Conduct

Verbindliche Verhaltensstandards für die Konzeption, Entwicklung und Implementierung KI-gestützter Systeme.

Version 1.0·Stand: März 2026·Versioniertes Dokument
00

Präambel

Ein Verhaltenskodex, der nicht operationalisierbar ist, ist kein Steuerungsinstrument — er ist Dekoration. Der vorliegende Code of Conduct definiert verbindliche Standards für alle Tätigkeiten der EconLab AI in der Konzeption, Entwicklung, Implementierung und dem Betrieb von Systemen, die auf künstlicher Intelligenz basieren. Er richtet sich an Mitarbeiter, Partner, Auftragnehmer und Mandanten gleichermaßen.

Sieben Jahre Wirtschaftsprüfung und IT-Audit haben eine methodische Überzeugung geprägt: Die Glaubwürdigkeit eines Unternehmens, das andere prüft und berät, bemisst sich primär daran, ob es die proklamierten Standards auf sich selbst anwendet. Dieser Code of Conduct ist die Dokumentation dieser Selbstanwendung — nicht als Marketinginstrument, sondern als prüfbares Commitment.

“Vertrauen in regulierten Märkten ist eine Funktion von Nachvollziehbarkeit — nicht von Absichtserklärungen.”
— Leitprinzip der EconLab AI

Dieses Dokument ist vom Ethik-Codex abgegrenzt und ergänzt diesen: Während der Ethik-Codex die Haltung und die Prinzipien formuliert, die unserer Arbeit zugrunde liegen, definiert der Code of Conduct die operative Umsetzung — konkret, messbar und überprüfbar. Beide Dokumente sind versioniert und werden bei substantiellen Änderungen aktualisiert.

01

Arbeitsweise und Technologieeinsatz

Transparenz über den Einsatz generativer KI ist keine optionale Höflichkeit — sie ist methodische Voraussetzung für Nachvollziehbarkeit.

EconLab AI setzt Agentic-Coding-Systeme, Large Language Models und Multi-Agent-Architekturen als zentrale Werkzeuge in der Softwareentwicklung, Beratung und Produktentwicklung ein. Der Einsatz dieser Technologien erfolgt nicht verdeckt, sondern wird systematisch dokumentiert und gegenüber allen Stakeholdern offengelegt. Jeder Code-Beitrag, der unter Beteiligung generativer KI entsteht, wird durch ein Co-Authored-By-Tag im Versionskontrollsystem gekennzeichnet. Dokumente, Analysen und Artefakte, die KI-Unterstützung erfahren haben, werden als solche deklariert.

Für den operativen Einsatz autonomer Agenten gilt ein gestuftes Autonomie-Modell, das sich an der Responsible Scaling Policy von Anthropic orientiert: Je höher der Autonomiegrad eines Systems, desto strenger die Kontrollmechanismen. In kritischen Kontexten — etwa der Verarbeitung personenbezogener Daten, der Generierung rechtsverbindlicher Dokumente oder der Interaktion mit Produktivsystemen — operiert kein Agent ohne dokumentierten Review-Prozess durch einen menschlichen Prüfer. Autonomie ohne Aufsicht ist aus unserer Perspektive keine Effizienzsteigerung, sondern ein Kontrolldefizit.

EconLab AI publiziert den eingesetzten AI-Tool-Stack: Welche Modelle für welche Aufgabenklassen verwendet werden, welche Daten in den Verarbeitungsprozess eingehen und welche inhärenten Limitationen die jeweiligen Systeme aufweisen. Diese Offenlegung erfolgt nicht als nachgelagerter Compliance-Report, sondern als architektonisches Prinzip. Die Prämisse lautet: Systeme, deren Funktionsweise nicht erklärbar ist, erfüllen nicht die Anforderungen an eine prüfungssichere Dokumentation — und werden folglich nicht in Mandantenkontexten eingesetzt.

02

Mandantenbeziehung und Kommunikation

Die Qualität einer Beratungsbeziehung bemisst sich an der Wahrhaftigkeit der Kommunikation — nicht an der Quantität der Deliverables.

EconLab AI unterhält keine intermediäre Kommunikationsschicht zwischen den ausführenden Fachkräften und dem Mandanten. Wer die Arbeit ausführt, kommuniziert direkt mit dem Auftraggeber. Dieses Prinzip eliminiert Informationsverluste, die in traditionellen Beratungsstrukturen durch die Zwischenschaltung von Account Managern, Engagement Leads oder Projektkoordinatoren systematisch entstehen. Die Erfahrung aus sieben Jahren Wirtschaftsprüfung hat gezeigt, dass die Distanz zwischen Prüfer und Prüfungsobjekt direkt mit der Fehlerquote in der Beurteilung korreliert — dasselbe Prinzip gilt für die Beratung.

Scope-Ehrlichkeit ist ein verbindlicher Standard: Wenn ein Mandantenauftrag außerhalb unserer Kernkompetenz liegt, wenn die Erwartungen an Zeitrahmen oder Budget unrealistisch sind oder wenn ein anderer Dienstleister besser geeignet wäre, wird dies proaktiv kommuniziert. Die kurzfristige Umsatzmaximierung durch Annahme ungeeigneter Mandate widerspricht dem langfristigen Interesse an einer belastbaren Reputation. Dieses Prinzip ist nicht altruistisch motiviert — es ist ökonomisch rational: Fehlgeschlagene Projekte generieren höhere Opportunitätskosten als abgelehnte.

Die Preisgestaltung erfolgt transparent und nachvollziehbar. Tagessätze, Pauschalpreise und Retainer-Modelle werden vor Projektbeginn schriftlich fixiert. Nachträgliche Kostenerhöhungen ohne dokumentierte Scope-Änderung finden nicht statt. Statusberichte werden in definierten Intervallen bereitgestellt, deren Frequenz sich nach der Projektkomplexität richtet — nicht nach der Zahlungsbereitschaft des Mandanten.

03

Datenschutz und Informationssicherheit

Datenschutz ist bei EconLab AI kein Feature — er ist die Architekturentscheidung, die allen anderen vorausgeht.

Für sämtliche Mandantendaten, die im Rahmen von Beratungs-, Entwicklungs- oder Prüfungstätigkeiten verarbeitet werden, gilt eine Zero-Data-Retention-Policy: Daten werden nicht länger gespeichert als für die Erfüllung des konkreten Auftrags erforderlich und nach Abschluss des Mandats vollständig gelöscht. Eine Verwendung von Mandantendaten zur Verbesserung eigener Modelle, Frameworks oder Produkte findet kategorisch nicht statt. Die Daten unserer Mandanten gehören unseren Mandanten — ohne Einschränkung, ohne Ausnahme und ohne Interpretationsspielraum.

Sämtliche Datenverarbeitungsprozesse, die KI-Systeme involvieren, werden auf EU-gehosteter Infrastruktur ausgeführt. Ein Transfer personenbezogener Daten in Jurisdiktionen außerhalb der Europäischen Union erfolgt nicht. Die DSGVO-Konformität wird nicht als Compliance-Ziel behandelt, sondern als architektonische Baseline implementiert: Privacy-by-Design und Privacy-by-Default sind keine nachgelagerten Prüfungskriterien, sondern Entwurfsprinzipien, die in jeder Systemarchitektur ab dem initialen Design verankert werden. Datenschutz-Folgenabschätzungen werden vor der Inbetriebnahme neuer KI-Systeme durchgeführt — nicht retrospektiv.

Die technische Absicherung umfasst Verschlüsselung bei Übertragung und Speicherung, rollenbasierte Zugriffskontrolle und regelmäßige Sicherheitsüberprüfungen. API-Schlüssel, Zugangsdaten und sicherheitsrelevante Konfigurationen werden ausschließlich in dedizierten Secrets-Management-Systemen verwaltet und niemals in Versionskontrollsystemen, Dokumentationen oder Kommunikationskanälen exponiert.

04

Qualitätssicherung und Prüfbarkeit

Was nicht prüfbar ist, ist nicht fertig. Dieses Prinzip entstammt der Abschlussprüfung — und gilt für jedes System, das wir entwickeln.

Compliance-by-Design bedeutet in der Praxis: Jedes System, das EconLab AI konzipiert, entwickelt oder implementiert, ist ab dem ersten Entwicklungstag auditierbar. Dies ist keine Reaktion auf regulatorische Anforderungen, sondern eine Konsequenz aus sieben Jahren Prüfungserfahrung. Wer selbst Systeme auf Konformität, Integrität und Nachvollziehbarkeit geprüft hat, weiß, welche Fragen ein Auditor stellen wird — und baut die Antworten in die Architektur ein, bevor die Frage gestellt wird.

Wir wenden dieselben Prüfungsstandards auf unsere eigenen Produkte an, die wir an Mandantensysteme anlegen. VisionDocs, LMAT, unsere internen Frameworks — sämtliche Systeme werden nach den Maßstäben von ISA 315 (Risikoidentifikation), ISO/IEC 27001 (Informationssicherheit) und den Anforderungen des EU AI Act evaluiert. Es gibt keinen doppelten Standard. Diese Symmetrie zwischen interner und externer Prüfung ist kein Qualitätsmerkmal, das wir wählen — es ist die Mindestanforderung an die Glaubwürdigkeit eines Unternehmens, das andere prüft und berät.

Jede Architekturentscheidung, jeder Agent-Workflow und jeder Datenverarbeitungsschritt verfügt über einen dokumentierten Audit-Trail. Diese Dokumentation umfasst die Entscheidungsgrundlage, die evaluierten Alternativen, die Risikobewertung und die Verantwortlichkeiten. Der Audit-Trail ist dabei kein bürokratischer Overhead — er ist das Instrument, das retrospektive Analyse, Fehleridentifikation und kontinuierliche Verbesserung erst ermöglicht.

06

Fehlerkultur und Accountability

In komplexen soziotechnischen Systemen sind Fehler strukturell unvermeidlich. Die Frage ist nicht ob, sondern wie mit ihnen umgegangen wird.

EconLab AI verpflichtet sich zu einem systematischen Umgang mit Fehlern, der auf den Prinzipien der Offenlegung, Ursachenanalyse und strukturellen Prävention basiert. Wenn ein KI-System unerwartete oder fehlerhafte Ergebnisse produziert, wenn eine Architekturentscheidung sich als suboptimal erweist oder wenn ein Mandantenauftrag nicht die vereinbarte Qualität erreicht, wird dies gegenüber dem betroffenen Stakeholder proaktiv kommuniziert — nicht verschleiert, relativiert oder durch nachträgliche Umdeutung kaschiert.

Für jeden identifizierten Fehler wird eine Root-Cause-Analyse durchgeführt, die über die unmittelbare Symptombehandlung hinausgeht. Die Frage lautet nicht ausschließlich, was schiefgelaufen ist, sondern warum die bestehenden Kontrollmechanismen den Fehler nicht verhindert haben. Die Ergebnisse dieser Analyse fließen in die Anpassung von Prozessen, Architekturen und Review-Verfahren ein. Dieser Feedback-Loop ist keine optionale Best Practice — er ist ein verbindlicher Bestandteil unseres Qualitätsmanagements.

Accountability bedeutet bei EconLab AI nicht die nachträgliche Zuweisung von Schuld, sondern die ex ante definierte Zuordnung von Verantwortlichkeiten. Für jedes Projekt, jeden Agent-Workflow und jede Mandantenbeziehung existiert eine dokumentierte Verantwortungsstruktur, die festlegt, wer Entscheidungen trifft, wer diese überprüft und wer bei Abweichungen eskaliert. Diese Struktur ist einsehbar — für Mandanten, Partner und interne Beteiligte gleichermaßen.

07

Regulatorischer Rahmen und Compliance

Regulierung ist kein Innovationshemmnis — sie ist die Infrastruktur, auf der Vertrauen in technologische Systeme aufgebaut wird.

Der vorliegende Code of Conduct operiert nicht im regulatorischen Vakuum, sondern baut auf bestehenden gesetzlichen Rahmenwerken und internationalen Standards auf, die er durch praxiserprobte Audit-Kriterien ergänzt. EconLab AI betrachtet regulatorische Compliance nicht als Kostenfaktor, sondern als Qualitätsmerkmal, das den langfristigen Wert unserer Arbeit für Mandanten in regulierten Märkten sicherstellt.

Die regulatorische Orientierung umfasst den EU AI Act in seiner vollständigen Anwendbarkeit ab August 2026, einschließlich Risiko-Klassifikation, Dokumentationspflichten und Human-Oversight-Anforderungen für High-Risk-Systeme. Die DSGVO bildet die datenschutzrechtliche Baseline für sämtliche Verarbeitungstätigkeiten. ISO/IEC 42001 als internationaler Standard für AI Management Systems definiert den organisatorischen Rahmen. Die Prüfungsstandards ISA 315 und die IDW-Prüfungshinweise liefern die methodische Grundlage für unsere Qualitätssicherung — nicht als theoretischer Referenzrahmen, sondern als operatives Werkzeug, das in sieben Jahren Prüfungspraxis erprobt wurde.

Die Mitgliedschaft in der ISACA-Fachgruppe Digital Trust und die Mitarbeit am Positionspapier zu vertrauensbildender KI unterstreichen, dass unser Engagement für regulatorische Standards über die bloße Einhaltung hinausgeht. EconLab AI beteiligt sich aktiv an der Entwicklung und Weiterentwicklung von Governance-Frameworks für den verantwortungsvollen Einsatz künstlicher Intelligenz — nicht als passive Rezipienten regulatorischer Vorgaben, sondern als Mitgestalter der Standards, nach denen wir arbeiten.

EU AI Act

Vollständige Compliance ab August 2026. Risiko-Klassifikation, Konformitätsbewertung, Dokumentationspflichten und Human Oversight.

DSGVO / GDPR

Privacy-by-Design, Privacy-by-Default, Zero Data Retention, ausschließlich EU-Hosting. Architektonische Baseline.

ISO/IEC 42001

Internationaler Standard für AI Management Systems. Organisatorischer Rahmen für verantwortungsvolle KI-Governance.

ISA 315 / IDW

Prüfungsstandards aus sieben Jahren Wirtschaftsprüfung und IT-Audit. Operatives Werkzeug, nicht theoretischer Referenzrahmen.

ISACA Digital Trust

Aktive Mitgliedschaft in der Fachgruppe. Co-Autor des Positionspapiers zu vertrauensbildender KI.

EU GPAI Code of Practice

Safety & Security Frameworks, Model Reports und Whistleblower-Schutz. In Kraft seit August 2025.

05

Kategorische Ablehnungen

Die Integrität eines Verhaltenskodex bemisst sich nicht an dem, was er proklamiert — sondern an dem, was er unter wirtschaftlichem Druck ablehnt.

Unabhängig von Mandantenanfrage, Umsatzpotenzial oder Marktdruck existieren Grenzen, die EconLab AI nicht überschreitet. Diese Ablehnungen sind nicht verhandelbar und gelten ohne Ausnahme für sämtliche Geschäftsbeziehungen, Partnerschaften und interne Projekte.

Keine manipulativen KI-Systeme

Entwicklung oder Einsatz von KI-Systemen, die Nutzer ohne deren informierte Kenntnis beeinflussen, überzeugen oder zu Handlungen veranlassen, ist ausgeschlossen.

Keine biometrische Überwachung

Biometrische Echtzeit-Identifikation, Social-Scoring-Mechanismen oder die Inferenz geschützter Merkmale aus biometrischen Daten werden weder entwickelt noch implementiert.

Keine automatisierten Konsequenzentscheidungen ohne menschliche Prüfung

Entscheidungen mit wesentlichen Auswirkungen auf natürliche Personen — insbesondere in den Domänen Beschäftigung, Kreditvergabe, Versicherung und Gesundheitsversorgung — erfordern stets eine dokumentierte menschliche Überprüfung vor Wirksamwerden.

Keine Mandatsannahme bei unverifizierbarer Datenherkunft

Engagements, bei denen die DSGVO-Konformität der bereitgestellten Datengrundlage nicht verifizierbar ist, werden nicht angenommen. Die Beweislast für die Rechtmäßigkeit der Datenerhebung liegt beim Auftraggeber.

Kein Deployment von High-Risk-KI ohne Risiko-Klassifikation

High-Risk-KI-Systeme gemäß der Definition des EU AI Act werden ausschließlich mit dokumentierter Risiko-Klassifikation, implementiertem Human-Oversight-Mechanismus und vollständiger Konformitätsbewertung in Betrieb genommen.

Keine Weitergabe von Mandanteninformationen

Vertrauliche Informationen, die im Rahmen von Mandatsbeziehungen erlangt werden, werden unter keinen Umständen an Dritte weitergegeben, in Publikationen verwendet oder für die Akquise weiterer Mandate instrumentalisiert — auch nicht in anonymisierter Form, sofern eine Re-Identifikation nicht mit hinreichender Sicherheit ausgeschlossen werden kann.

08

Geltungsbereich und Versionierung

Dieser Code of Conduct tritt mit seiner Veröffentlichung in Kraft und gilt für alle Mitarbeiter, Partner, Auftragnehmer und Subunternehmer der EconLab AI. Er wird mindestens jährlich überprüft und bei regulatorischen Änderungen, substantiellen Änderungen der Geschäftstätigkeit oder identifizierten Verbesserungsbedarfen aktualisiert. Sämtliche Änderungen werden versioniert und publiziert.

Änderungsanträge können von Mitarbeitern, Partnern und Mandanten eingereicht werden. Der Gründer evaluiert vorgeschlagene Änderungen im Kontext regulatorischer Entwicklungen, operativer Erfahrungen und identifizierter Lücken. Die Entscheidung über Annahme oder Ablehnung wird dokumentiert. Die normative Begründung für die Notwendigkeit eines lebendigen, selbstkritischen Governance-Dokuments findet sich im Ethik-Codex, Sektion 07.

Version: 1.0Erstveröffentlichung: März 2026Letzte Änderung: März 2026Nächste planmäßige Überprüfung: März 2027