FAQ
Häufig gestellte Fragen
Alles, was Sie über Helvetic AI, unsere Methodik und unsere Produkte wissen müssen.
Was ist Helvetic AI?
Helvetic AI ist ein unabhängiges Schweizer KI-Evaluationslabor, das KI-Modelle systematisch prüft: für Performance, EU AI Act Compliance, FINMA-Validierung und Schweizer Sprachanforderungen. Jede Evaluation liefert einen HAAS-Score über 6 Dimensionen.
Verlassen meine Daten die Schweiz?
Nein. Sie wählen aus 5 Handoff-Modi: Benchmark-Intelligence (Standard, keine Daten nötig), API-Key, Docker auf Ihrer Infrastruktur, dedizierte Hardware vor Ort oder Anonymisierung vorab. In keinem Modus verlassen Ihre Daten die Schweiz.
Was kostet der Einstieg?
Der günstigste Einstieg ist eine KI-Risikoklassifizierung ab CHF 3’000. Für eine vollständige KI-Modell-Evaluation mit Benchmark-Ergebnissen beginnen Preise ab CHF 8’000. Alle Produkte auf unserer Leistungsseite.
Wie lange dauert eine Evaluation?
Eine KI-Modell-Evaluation dauert 5–10 Arbeitstage je nach Umfang. Eine Risikoklassifizierung dauert ca. 1 Woche. Eine FINMA-Validierung dauert 2–4 Wochen.
Brauche ich IT-Ressourcen?
Minimal. Im Standard-Modus (Benchmark-Intelligence) brauchen Sie nichts. Wir haben die Benchmark-Daten bereits. Für Custom-Evaluationen stellen Sie einen API-Key bereit. Der gesamte Prozess ist darauf ausgelegt, Ihren Aufwand zu minimieren.
Was ist der HAAS-Score?
Der Helvetic AI Assurance Score (HAAS) ist unser zusammengesetztes Scoring-Framework über 6 Dimensionen: Leistung, Robustheit, Sicherheit, Konformität, Schweizer Sprache und Dokumentation. Jede Dimension wird 0–100 bewertet mit Konfidenzintervallen. Details auf unserer Methodik-Seite.
Was sind Inspect AI und Compl-AI?
Inspect AI ist das Evaluations-Framework des UK AI Safety Institute (MIT-Lizenz), genutzt von führenden KI-Laboren. Compl-AI ist die EU AI Act Compliance-Benchmark-Suite von ETH Zürich, INSAIT. Unser System kombiniert beide mit Swiss-Bench, unseren eigenen Schweizer Benchmarks.
Was ist Swiss-Bench?
Swiss-Bench ist unsere proprietäre Benchmark-Suite mit 436 Szenarien in 11 Aufgaben, die Modelle auf Deutsch, Französisch und Italienisch an domänenspezifischen Aufgaben testet. Wir veröffentlichen Ergebnisse vierteljährlich als Open-Source-Leaderboard.
Was erhalte ich konkret?
(1) Einen standardisierten Evaluationsbericht mit HAAS-Scores, Lückenanalyse und Empfehlungen. (2) Detaillierte Benchmark-Ergebnisse, Scoring-Aufschlüsselungen und Methodik-Dokumentation zur unabhängigen Verifizierung (Konfiguration, Seed-Werte, Datensätze). Sie können jeden Test selbst wiederholen. (3) Einen Findings-Call zur Ergebnisinterpretation.
Wie unterscheiden Sie sich von Beratungsunternehmen?
Wir sind ein technisches Audit-Labor, kein Beratungsunternehmen. Unser System liefert systematische, reproduzierbare Ergebnisse. Keine manuellen Bewertungen oder subjektiven Meinungen. Einstieg ab CHF 3’000 vs. CHF 200’000+ bei Big Four. Jeder Test ist wiederholbar.
Sind Sie wirklich unabhängig?
Ja. Keine kommerziellen Beziehungen zu KI-Modell-Anbietern. Keine Provisionen, keine Vendor-Partnerschaften, kein Pay-for-Score. Jedes Modell wird mit demselben System und derselben Methodik evaluiert.
Was verlangt FINMA bei KI-Modellen?
FINMA Guidance 08/2024 definiert Aufsichtsbereiche für KI: Governance, Risikoidentifikation, Datenqualität, Test & Validierung, Dokumentation, Erklärbarkeit und unabhängige Überprüfung. Unsere FINMA-Validierung evaluiert gegen alle Bereiche mit 30 FINMA-spezifischen Szenarien.
Was sind KI-Halluzinationen?
KI-Halluzinationen treten auf, wenn ein Modell plausibel klingende, aber faktisch falsche Informationen generiert: erfundene Gerichtsurteile, nicht existierende Regulierungen, falsche Finanzdaten. Stanford (2024) fand eine 58% Halluzinationsrate bei juristischer KI-Analyse. Wir messen Halluzinationsraten quantitativ als Teil des HAAS-Scores.
Wer steckt hinter Helvetic AI?
Helvetic AI wurde von Fatih Uenal, PhD gegründet — mit dem Ziel, unabhängige KI-Evaluation für Schweizer Unternehmen zugänglich zu machen. Hintergrund: PhD (HU Berlin), Postdoc Harvard & Cambridge, MSc Computer Science (CU Boulder), MITx Statistics & Data Science. Sitz in Bern, Schweiz.
Ist Ihre Methodik peer-reviewed?
Unsere Methodik basiert auf über 40 peer-reviewed Publikationen aus Venues wie Nature, NeurIPS, ICLR, ICML, ACL und NAACL. Ein dedizierter wissenschaftlicher Artikel, der das Swiss-Bench-Evaluationsframework, die von Experten verifizierte Ground Truth und die statistischen Methoden beschreibt, befindet sich derzeit in Vorbereitung zur peer-reviewed Publikation.