Wer wegen eines schlechten SCHUFA-Scores abgelehnt wird, soll künftig nicht mehr mit einem Schulterzucken abgespeist werden. Das Verwaltungsgericht Wiesbaden hat klargestellt: Betroffene haben Anspruch auf aussagekräftige, nachvollziehbare Informationen, wie ihr Score zustande kommt – und die Datenschutzaufsicht muss das gegenüber der SCHUFA notfalls durchsetzen.
Und genau da beginnt die eigentliche Geschichte: Es ist selten der „Score“ an sich, der Menschen trifft, es ist das Gefühl, aus dem eigenen Leben ausgesperrt zu werden, ohne zu wissen, warum. Eine Wohnung ist greifbar nah, der Handyvertrag wäre Routine, der Kredit vielleicht der Start in ein stabileres Kapitel. Dann kommt ein unsichtbares Urteil aus Datenpunkten – und plötzlich heißt es: Nein. Kein Gespräch, keine Erklärung, kein Hebel. Nur eine Zahl.
Ein Urteil mit Signalwirkung
In einer digitalisierten Gesellschaft, in der Algorithmen zunehmend über Kredite, Mietverträge und Versicherungen entscheiden, ist das Vertrauen in automatisierte Systeme essenziell. Umso größer ist der Handlungsbedarf, wenn gerade diese Systeme intransparent und für den Verbraucher nicht nachvollziehbar sind. Das Verwaltungsgericht Wiesbaden hat am 19. November 2025 ein wegweisendes Urteil gefällt, das genau diesen Zustand adressiert – und die Schufa, Deutschlands größte Wirtschaftsauskunftei, verpflichtet, künftig ihre Berechnungsmethoden offenzulegen. Das Urteil stärkt nicht nur die Rechte der Verbraucher, sondern setzt auch einen neuen Standard für digitale Verantwortung.
Der Fall, der zur Entscheidung führte, betrifft eine Frau, die bereits im Jahr 2018 einen Kreditantrag stellte und abgelehnt wurde – ohne nachvollziehbare Begründung. Der Grund: ein schlechter Schufa-Score, dessen Zustandekommen nicht erklärt wurde. Sie klagte sich durch mehrere Instanzen und wurde schließlich vom VG Wiesbaden bestätigt: Die Schufa-Auskunft verletze Art. 15 Abs. 1 lit. h DSGVO, weil sie nicht ausreichend über die verwendete Logik automatisierter Entscheidungen informiere. Das Urteil reiht sich in eine Entwicklung ein, die vom Europäischen Gerichtshof 2023 angestoßen wurde. Damals hatte der EuGH festgestellt, dass bereits die Nutzung eines Scores zur Vertragsentscheidung als automatisierte Entscheidung zu werten ist – und damit strengeren Informationspflichten unterliegt.
Der transparente Score: Pflicht statt Privatsache
Künftig dürfen Verbraucher präzise Auskünfte einfordern. Die Schufa muss darlegen, welche personenbezogenen Daten in die Berechnung einfließen, aus welchen Quellen diese stammen – intern oder extern – und wie stark einzelne Merkmale gewichtet werden. Auch muss erläutert werden, warum bei einem bestimmten Verbraucher eine konkrete Risikostufe angenommen wird. Das bedeutet nicht nur eine massive Umstellung der internen Prozesse bei Auskunfteien, sondern auch eine neue Verantwortung für Banken, Vermieter und Vertragspartner, die auf solche Scores vertrauen.
Dr. Thomas Schulte, Vertrauensanwalt bei ABOWI Law, ordnet die Tragweite juristisch ein: „Transparenz ist kein optionales Extra, sondern ein Grundrecht. Wenn Algorithmen in Lebensentscheidungen eingreifen, müssen sie erklärbar und kontrollierbar sein – alles andere ist mit der DSGVO unvereinbar.“
Die Bedeutung dieser Einschätzung zeigt sich in der Praxis: Schufa-Scores entscheiden täglich über die Kreditwürdigkeit, Wohnungssuche oder Vertragsabschlüsse von Millionen Menschen. Dass diese Entscheidungen auf Blackbox-Systemen beruhen, deren Logik sich selbst Juristen kaum erschließt, war schon lange ein Skandal – nun aber auch ein rechtlicher.
Mit dem Urteil wird auch der Verweis auf Geschäftsgeheimnisse neu bewertet. Bisher verweigerten viele Auskunfteien die Offenlegung ihrer Algorithmen mit genau diesem Argument. Das VG Wiesbaden stellt jedoch klar: Pauschale Ablehnungen sind unzulässig. Die Abwägung zwischen Unternehmensinteressen und Verbraucherrechten müsse zugunsten der Betroffenen ausfallen, wenn diese gravierende Nachteile durch Intransparenz erleiden.
Was ändert sich für Unternehmen?
Für die Schufa und ähnliche Unternehmen bedeutet das Urteil: ihre datenbasierten Entscheidungen müssen künftig offengelegt, nachvollziehbar dokumentiert und transparent kommuniziert werden. Die technischen Systeme hinter den Scores – seien sie algorithmisch, heuristisch oder KI-basiert – müssen in menschenverständlicher Sprache erklärt werden können. Auch dynamische Anpassungen durch Machine-Learning-Modelle unterliegen diesen Anforderungen. Unternehmen sind nun in der Pflicht, ethische Prinzipien wie Fairness, Nichtdiskriminierung und Nachvollziehbarkeit aktiv umzusetzen.
Die Schufa selbst kündigte nach dem Urteil an, ihre Transparenzmaßnahmen zu überarbeiten. Doch auch Banken, Telekommunikationsunternehmen und große Online-Plattformen geraten zunehmend unter Druck. Wer auf unüberprüfbare Scorewerte vertraut und daraufhin Verträge ablehnt, handelt risikobehaftet. Das Urteil sensibilisiert also nicht nur Datenverarbeiter, sondern die gesamte Wirtschaft für einen bewussteren Umgang mit algorithmischer Entscheidungsfindung.
Artikel 22 der DSGVO verbietet automatisierte Einzelentscheidungen, die rechtliche Wirkung entfalten oder Betroffene erheblich beeinträchtigen – es sei denn, es existiert eine ausdrückliche Einwilligung oder ein Gesetz erlaubt dies. Gleichzeitig wird verlangt, dass Betroffene über die zugrundeliegende Logik, die Bedeutung und die angestrebten Auswirkungen informiert werden. Diese Voraussetzungen waren im vorliegenden Fall nicht erfüllt.
Dr. Schulte betont: „Es reicht nicht aus, ein mathematisches Modell zu haben. Man muss es auch erklären können – und zwar so, dass es jeder versteht.“
Ein Paradigmenwechsel bahnt sich an. Der Schutz personenbezogener Daten umfasst künftig auch das Recht auf Erklärbarkeit – ein Begriff, der im Kontext von KI-Systemen immer wichtiger wird. Es reicht nicht, sich auf technische Effizienz zu berufen, wenn Menschen durch undurchschaubare Scores benachteiligt werden. Die Nachvollziehbarkeit der Entscheidung wird zur Eintrittskarte für gesellschaftliche Akzeptanz.
Der Weg zu einer faireren Datenwelt
Das Urteil aus Wiesbaden markiert einen Wendepunkt im Verhältnis zwischen Verbrauchern und datenverarbeitenden Institutionen. Der Fokus auf algorithmische Fairness, wie er in der Forschung längst etabliert ist, findet nun Eingang in die Rechtsprechung. Unternehmen sind nicht mehr nur technologische, sondern auch ethische Akteure. Sie tragen Verantwortung dafür, dass ihre Systeme keine versteckten Diskriminierungen oder strukturellen Ungleichheiten fördern.
Für Verbraucher bedeutet dies: Sie können ihre Rechte auf Auskunft, Korrektur und Transparenz effektiver durchsetzen. Für Unternehmen heißt es: Wer sich nicht an die neuen Standards hält, riskiert Klagen, Imageverlust und regulatorische Maßnahmen.
Doch der gesellschaftliche Mehrwert ist immens. Vertrauen in digitale Systeme entsteht nur dort, wo Transparenz, Fairness und Kontrolle gegeben sind. Was mit einem persönlichen Schicksal begann, hat sich zum juristischen und politischen Symbolfall entwickelt. Die Schufa muss den Code nicht nur knacken, sie muss ihn erklären.
Drei Fragen, die sich jetzt aufdrängen – und die Antworten darauf
1) Muss die SCHUFA jetzt ihren Algorithmus komplett offenlegen?
Antwort: Nicht zwingend den Quellcode. Aber Betroffene müssen „aussagekräftige Informationen“ bekommen: welche Datenarten einfließen, welche Faktoren typischerweise wirken, wie die Logik im konkreten Fall zu verstehen ist – und welche Bedeutung/Tragweite das für Entscheidungen hat. Allgemeine Floskeln reichen gerade nicht mehr.
2) Was kann ich konkret verlangen, wenn mir ein Vertrag wegen „Bonität“ platzt?
Antwort: Sie können eine individualisierte, nachvollziehbare Erklärung verlangen, die Ihnen ermöglicht, die Bewertung zu verstehen und anzufechten – nicht nur eine abstrakte Beschreibung. Und: Wenn die Auskunft unzureichend bleibt, muss die zuständige Datenschutzaufsicht einschreiten können.
3) Heißt das Urteil: Banken, Vermieter und Telkos dürfen Scores nicht mehr nutzen?
Antwort: Nein – aber die Nutzung wird riskanter, wenn sie auf einer Blackbox beruht. Wer Entscheidungen mit erheblichen Folgen auf einen Score stützt, muss damit rechnen, dass Betroffene Transparenz und Überprüfbarkeit einfordern und dass Aufsicht und Gerichte genauer hinschauen.