KI KI UND PRAXIS

Das CRM ist nicht dein Problem – deine Daten sind es

Ich erinnere mich an eine Situation, die ich in ähnlicher Form schon mehrfach erlebt habe. Ein Unternehmen – mittelständischer Maschinenbauer, rund 400 Mitarbeitende – hatte sein CRM gerade auf Salesforce migriert. Sechs Monate Projektlaufzeit, externe Berater, internes Projektteam, Schulungen. Die Erwartung danach war klar: Jetzt läuft es endlich. Jetzt haben wir Transparenz über unsere Leads, unsere Pipeline, unsere Kampagnenwirkung.

Drei Monate nach Go-live war die Ernüchterung vollständig. Die Dashboards zeigten Zahlen, denen niemand traute. Sales ignorierte die Leads, die aus Marketing kamen. Das Nurturing lief ins Leere. Und wenn man genauer hinsah, war das Problem nicht schwer zu finden: Die Daten, mit denen das neue System befüllt worden war, kamen aus dem alten System. Mit denselben Lücken, denselben Duplikaten, denselben Feldbelegungen, die nie wirklich definiert worden waren.

Das Tool war nicht das Problem. Es hatte das Problem nur sichtbarer gemacht.

Warum AI-Projekte im CRM scheitern – und nicht woran man denkt

Gartner hat prognostiziert, dass über 40 Prozent aller Agentic-AI-Projekte bis 2027 wieder aufgegeben werden. Nicht wegen unausgereifter Technologie. Nicht wegen fehlender Budgets. Sondern wegen schlechter Implementierung. Ich lese das und denke: Das ist eine sehr höfliche Formulierung für etwas, das ich direkter beschreiben würde. Der eigentliche Grund ist in den meisten Fällen, dass man ein leistungsfähiges System auf ein kaputtes Fundament gestellt hat.

Der Markt redet gerade über AI-Agenten im CRM, über automatisierte Lead-Qualifizierung, über prädiktives Scoring, über Echtzeit-Personalisierung. Das sind keine schlechten Ideen. Aber wer mir erklären will, wie sein KI-Agent eigenständig Leads bewertet und priorisiert, dem stelle ich eine einfache Gegenfrage: Auf welchen Daten arbeitet das System? Was steht in eurem ICP-Feld – und wer hat das zuletzt überprüft? Wie alt sind die E-Mail-Adressen in eurer Datenbank? Stimmt das, was ihr als „Quelle“ eines Leads eintragt, mit dem überein, was tatsächlich passiert ist?

Die Antworten sind meistens unbequem.

Was dreckige Daten wirklich bedeuten

Wenn ich von dreckigen Daten spreche, meine ich nicht nur technische Mängel wie Duplikate oder fehlende Pflichtfelder. Ich meine das grundsätzlichere Problem, dass die Daten im CRM die Realität nicht mehr abbilden – weder die des Marktes noch die der Kunden noch die eigenen Prozesse.

Ein konkretes Beispiel aus einer Salesforce-Umgebung, die ich kenne: Das Lead-Scoring-Modell bewertete „Downloads“ als starkes Signal für Kaufabsicht. Hinter diesem Signal steckten aber zu 60 Prozent Wettbewerber, Studenten und Journalisten – weil niemand die Ausschlusslisten gepflegt hatte. Das Scoring-Modell arbeitete also korrekt auf Basis der Logik, die man eingestellt hatte. Nur bildete diese Logik nicht ab, was tatsächlich ein qualifizierter Lead war. Marketing lieferte fleißig MQLs, die Sales routinemäßig ignorierte. Nicht aus Faulheit. Sondern aus Erfahrung.

Das ist kein Randproblem. Das ist der Normalzustand in den meisten mittelständischen B2B-Organisationen. Und wenn man jetzt in diesen Normalzustand einen KI-Agenten einsetzt, der auf Basis genau dieser Daten autonom Entscheidungen trifft, skaliert man nicht die Effizienz. Man skaliert den Fehler.

Der ICP ist keine Folie aus dem Strategie-Workshop

Das zweite strukturelle Problem ist der ICP – das Ideal Customer Profile. In vielen Unternehmen existiert er. Manchmal sogar gut dokumentiert. Nur hat er mit dem, was Sales tatsächlich als guten Kunden erlebt, selten viel zu tun. Und im CRM steht er nirgendwo. Er lebt auf einer Folie aus dem letzten Off-Site.

Wenn AI-basierte Lead-Qualifizierung funktionieren soll, braucht das System eine saubere Definition dessen, wen es priorisieren soll. Nicht als Beschreibung auf Folien, sondern als übersetzte Kriterien im System: Branche, Unternehmensgröße, Entscheidungsstruktur, typische Auslöser für eine Kaufentscheidung. Und diese Kriterien müssen regelmäßig mit der Realität abgeglichen werden – mit tatsächlich gewonnenen Deals, mit den Kunden, die wirklich passen, und mit denen, die man lieber nicht gewonnen hätte.

Das passiert in den wenigsten Unternehmen. Nicht weil es niemand für wichtig hält. Sondern weil der Alltag dazwischenkommt. Das Quartalsziel. Die neue Kampagne. Der Launch. Die Perspektive des Kunden – und damit das Fundament jeder Leadbewertung – verblasst, während das Team mit dem laufenden Betrieb beschäftigt ist.

Das ist kein Versagen einzelner Personen. Das ist ein strukturelles Problem.

Messaging, das niemand getestet hat

Der dritte Schwachpunkt ist das Messaging. Automatisierte Strecken – ob Nurturing-Sequenzen, automatische Follow-ups oder AI-generierte Erstkontakte – funktionieren nur dann, wenn das, was kommuniziert wird, beim Empfänger ankommt. Nicht inhaltlich korrekt ist. Nicht grammatikalisch sauber ist. Ankommt.

Ich sehe regelmäßig Nurturing-E-Mails, die seit zwei Jahren unverändert laufen. Klickraten zwischen einem und drei Prozent, die niemand hinterfragt, weil die Kampagne technisch funktioniert. Kein A/B-Test. Kein Abgleich mit dem, was Sales tatsächlich in Gesprächen hört. Kein Feedback aus echten Kundeninteraktionen.

Wenn man jetzt einen KI-Agenten nimmt, der auf Basis dieser Strecken autonom nachfasst, personalisiert oder eskaliert, wird er das kaputte Messaging schneller ausspielen. Effizienter. In mehr Varianten. An mehr Empfänger.

Das ist keine Verbesserung. Das ist Beschleunigung eines Problems.

Was vor dem Tool-Entscheid stehen muss

Ich sage nicht, dass AI im CRM keine Zukunft hat. Ich sage, dass die Voraussetzungen für einen funktionierenden Einsatz in den meisten Organisationen noch nicht gegeben sind – und dass das niemand laut sagt, weil die Tool-Anbieter kein Interesse daran haben und die internen Verantwortlichen keine Zeit für eine ehrliche Bestandsaufnahme finden.

Was tatsächlich vor dem Tool-Entscheid stehen muss:

Erstens eine ehrliche Datenqualitätsanalyse. Nicht als IT-Projekt, sondern als Marketing-und-Sales-Projekt gemeinsam. Was steht tatsächlich in den Feldern? Was bedeuten die Werte in der Realität? Welche Felder werden konsequent belegt, welche nicht – und warum?

Zweitens ein ICP-Review auf Basis echter Kundendaten. Nicht auf Basis von Annahmen, die im letzten Workshop entstanden sind. Wer sind die zehn Kunden, mit denen Sales am liebsten arbeitet? Was haben die gemeinsam? Und wo weicht das von der offiziellen ICP-Beschreibung ab?

Drittens eine Messaging-Audit der laufenden automatisierten Strecken. Was hat in den letzten zwölf Monaten funktioniert? Was nicht? Wo gibt es Abbrüche, die niemand erklärt hat?

Das ist keine aufregende Arbeit. Es ist die notwendige Arbeit. Und sie kostet Zeit – nicht viel Geld, aber viel Bereitschaft, unbequeme Wahrheiten anzusehen.

Das Tool ist das Letzte, worüber man reden sollte

Nach 20 Jahren sehe ich immer wieder dasselbe Muster: Ein Unternehmen hat ein Effektivitätsproblem im Marketing. Die Lösung ist ein neues Tool. Das Tool wird eingeführt. Das Effektivitätsproblem bleibt – nur jetzt läuft es auf einer teureren Plattform. Und irgendwann kommt jemand auf die Idee, dass das neue Tool vielleicht nicht das richtige war.

AI verändert diese Dynamik nicht. Sie beschleunigt sie.

Die eigentliche Frage vor jedem CRM-Projekt, vor jedem AI-Piloten, vor jeder Automatisierungsinitiative lautet nicht: Welches Tool ist das beste? Sie lautet: Haben wir die Hausaufgaben gemacht, damit ein Tool überhaupt helfen kann?

Das Unternehmen aus meinem Einstieg hat das Problem übrigens gelöst. Nicht mit einem weiteren Tool. Sondern mit drei Monaten gemeinsamer Arbeit zwischen Marketing und Sales, in der sie Feld für Feld durchgegangen sind, den ICP neu definiert haben – dieses Mal auf Basis echter Deals – und das Scoring-Modell so angepasst haben, dass es das widerspiegelte, was Sales wirklich als relevant einstufte.

Lass uns reden

Bereit, KI vom Slide
ins Geschäftsmodell zu bringen?

Wir schauen gemeinsam, welche Rolle KI in deinem Geschäftsmodell spielen kann.