Wenn du heute einen Grundriss planst, musst du nicht mehr nur mit Lineal und Zirkel arbeiten. Künstliche Intelligenz (KI) überprüft Fluchtweglängen, berechnet Brandschutzabstände und prüft Barrierefreiheit in Sekunden - und das, während du noch über die Fensterposition nachdenkst. Aber wie zuverlässig ist das wirklich? Und lohnt sich der Aufwand?
Früher musste ein Architekt hunderte Seiten Normen durchforsten, um sicherzugehen, dass ein Grundriss rechtssicher ist. Heute gibt es KI-Tools, die das automatisch tun. Sie prüfen, ob alle Treppen die richtige Steigung haben, ob die Wohnungstüren mindestens 90 cm breit sind, ob der Flur länger als 15 Meter ist - und ob das überhaupt erlaubt ist. Diese Regeln sind klar, messbar, wiederholbar. Perfekt für Maschinen.
Der echte Vorteil liegt aber woanders: bei der Generierung von Varianten. Stell dir vor, du gibst deinem KI-Tool die Grundfläche, die Anzahl der Zimmer und die Ausrichtung. In 20 Minuten liefert es dir 500 verschiedene Layouts. Nicht 5, wie bei manueller Planung. 500. Jedes mit optimierter Belichtung, Windströmung und Lärmreduktion. Einige sind verrückt, andere brillant. Aber alle sind berechnet. Das macht KI nicht zum Künstler - sondern zum Super-Assistenten.
Ein KI-Tool, das die Ziffern auf einem Bild erkennt, hat eine Fehlerquote von unter 0,3%. Klingt perfekt. Aber in der realen Baupraxis? Da ist die Welt nicht so sauber. Ein Drohnenbild mit Schatten, Staub und Halterungen an der Fassade? Die KI verwechselt eine Tür mit einem Fenster. Eine Baustelle mit unvollständigen BIM-Daten? Die KI denkt, alles sei richtig - obwohl die Rohre nicht passen.
Laut einer Meta-Studie des Informatikers Vahid Garousi (April 2025) variiert die Fehlerquote je nach Anwendung extrem:
Und das ist nicht mal das Schlimmste. Die Fehlerquote von KI-Modellen ist in den letzten 12 Monaten von 18% auf bis zu 45% gestiegen. Warum? Weil viele Systeme mit immer mehr, aber immer schlechteren Daten trainiert werden. Die sogenannte „KI-Verschmutzung“: Jeder kopiert, was andere gemacht haben - und dabei werden Fehler immer weiter verbreitet. Eine MIT-Studie sagt klar: 85% aller KI-Fehler kommen von schlecht trainierten Modellen. Nicht von komplexer Mathematik - sondern von faulen Daten.
Es gibt konkrete Fälle, in denen KI Geld gespart hat - und zwar richtig viel.
Ein Infrastrukturspezialist in Stuttgart nutzt seit 2024 Drohnenbilder, die täglich mit dem digitalen BIM-Modell abgeglichen werden. Die KI erkennt sofort: „Da ist eine Wand, die nicht zur Planung passt.“ „Dort fehlt eine Brandschutztür.“ „Diese Leitung ist zu nah an der Dämmung.“ Früher hätte man das erst beim Bauabschluss bemerkt - und 100.000 € nachbessern müssen. In diesem Jahr hat er 650.000 € durch frühzeitige Korrekturen eingespart.
Ein Projektentwickler in Hamburg hat KI genutzt, um alte Bauvorhaben zu analysieren. Was lief schief? Wo wurden Materialien überzogen? Wo stiegen die Kosten? Die KI fand Muster, die Menschen übersehen hatten. Innerhalb eines Jahres sanken die Fehlkalkulationen um 40%.
Und das ist nur der Anfang. Die Materialauswahl? Früher wurden 3-4 Optionen geprüft. Heute: über 120. Die Genauigkeit der Materialberechnung? Von ±25% Abweichung auf ±7%. Die Projektlaufzeit? Von 420 auf 327 Tage. Das sind keine theoretischen Zahlen. Das sind echte Ergebnisse aus realen Projekten.
Nicht jedes KI-Tool, das als „revolutionär“ verkauft wird, funktioniert. Viele Startup-Lösungen haben ein Problem: Sie haben keine guten Daten. Sie haben ein paar hundert Grundrisse aus dem Internet geladen - ohne Kontext, ohne Bauleitpläne, ohne Genehmigungsunterlagen. Die KI lernt dann: „Ein Bad mit Fenster ist gut.“ Aber nicht, dass es in der Stadt X gesetzlich verboten ist, Bäder ohne Fenster zu bauen.
Wolfgang Kroll von Drees & Sommer SE sagt es klar: „Mir bringen Milliarden an Daten nichts, wenn diese keine Struktur haben.“ Es geht nicht um die Menge. Es geht um die Qualität. Wer KI einsetzt, muss zuerst seine Daten sauber machen. Das ist der größte Aufwand - und der wichtigste Schritt.
Auch die menschliche Verantwortung wird oft ignoriert. Die meisten KI-Tools haben ein kleines Textfeld am Ende: „KI kann Fehler machen. Bitte prüfe wichtige Informationen.“ Das ist kein Haftungsausschluss. Das ist die Wahrheit. KI berechnet Wahrscheinlichkeiten. Sie versteht keinen Sinn, keinen Kontext, keine Verantwortung. Sie sagt nicht: „Das ist gefährlich.“ Sie sagt: „Das passt mit 87% Wahrscheinlichkeit.“
Willst du KI in deinem Büro nutzen? Dann brauchst du nicht unbedingt einen Programmierer. Aber du brauchst:
Die besten Tools, wie sie edrawsoft.com 2025 auflistet, bieten nicht nur Grundriss-Generierung. Sie simulieren Lichtverläufe, Windströme, Schallausbreitung - und warnen automatisch, wenn etwas gegen die Bauordnung verstößt. Aber sie funktionieren nur, wenn du ihnen die richtigen Daten gibst.
Drees & Sommer SE sagt es klar: „KI wird in allen Leistungsphasen des Bauens Einzug halten.“ Das ist keine Prognose. Das ist eine Absicht. Die Branche hat begriffen: KI macht nicht die Arbeit besser. Sie macht sie schneller, genauer, kostengünstiger - wenn sie richtig eingesetzt wird.
Die Zukunft gehört nicht dem Architekten, der nur mit KI plant. Sondern dem Architekten, der KI nutzt - und trotzdem entscheidet. Der, der die 500 Varianten durchgeht und sagt: „Diese hier ist schön, aber die ist zu teuer.“ „Diese hier ist effizient, aber die Bewohner würden sich nicht wohlfühlen.“
KI ist kein Zauberstab. Sie ist ein Werkzeug. Ein sehr mächtiges. Aber wie ein Hammer: Wenn du ihn falsch hältst, schlägst du dir auf den Daumen. Wenn du ihn richtig benutzt, bautst du ein Haus.
Die größte Gefahr ist nicht, dass KI Fehler macht. Sondern dass wir glauben, sie macht keine mehr. Das ist der wirkliche Fehler.
Die Fehlerquote liegt je nach Anwendung zwischen 20% und 30%. Bei einfachen, regelbasierten Aufgaben wie Fluchtwegprüfungen ist sie niedriger, bei komplexen, kontextabhängigen Aufgaben wie der Interpretation von Drohnenbildern oder unvollständigen BIM-Daten deutlich höher. Aktuelle Modelle zeigen sogar eine Tendenz zur Zunahme der Fehlerquote - von 18% vor einem Jahr auf bis zu 45% heute, hauptsächlich aufgrund von „KI-Verschmutzung“ durch schlechte Trainingsdaten.
KI generiert bis zu 500+ Entwurfsvarianten statt 3-5, optimiert Materialverbrauch von ±25% auf ±7% Abweichung, prüft automatisch Normenkonformität und reduziert Projektlaufzeiten von 420 auf 327 Tage. Sie identifiziert Mängel früh - wie in Stuttgart, wo 650.000 € durch frühzeitige Korrekturen eingespart wurden.
Sie werden mit schlechten oder unstrukturierten Daten trainiert - etwa mit PDF-Bildern ohne Metadaten oder ohne normative Kontexte. 85% der Fehler entstehen durch fehlerhafte Trainingsdaten. Ohne klare, strukturierte, qualitativ hochwertige Daten liefert KI falsche oder irreführende Ergebnisse - und das, obwohl sie technisch funktioniert.
Nein. KI ist kein Expertensystem, sondern ein Wahrscheinlichkeitsrechner. Sie sagt nicht, ob etwas „richtig“ oder „falsch“ ist - sondern, wie wahrscheinlich es ist, dass es einer Regel entspricht. Die rechtliche und ethische Verantwortung bleibt beim Menschen. Jede KI-Empfehlung muss manuell validiert werden - das steht auch in den Nutzungsbedingungen der meisten Tools.
Zuerst: saubere, strukturierte Daten - digitale BIM-Modelle, klare Normenabfragen, klare Materiallisten. Dann: einen Mitarbeiter, der BIM kennt und mit Daten umgehen kann. Und schließlich: einen Pilotversuch mit einem einzigen Projekt. Es braucht keine teure Software. Es braucht nur klare Prozesse und die Bereitschaft, KI als Werkzeug - nicht als Ersatz - zu nutzen.