Posts Tagged ‘Vertrauen’

Buchkritik: „Führungsaufgabe Nr. 1: Kommunikation“ von Dr. Nikolai A. Behr

20. Oktober 2025

Gleich vorweg: Ich bin mit dem Autoren seit langem bekannt und schätze seine Veranstaltungen und sein Fachwissen rund um das Thema Führung. Nun hat Nikolai A. Behr mir sein neues Buch empfohlen, dass ich im Hinblick als jahrelange Führungskraft als Textchef und Chefredakteur bei verschiedenen Verlagen gelesen habe. Und ich wurde bei der Lektüre wieder bestätigt, dass Behr einfach den Bogen raus hat.

Das 2025 im brain script Verlag erschienene Buch „Führungsaufgabe Nr. 1: Kommunikation“ von Dr. Nikolai A. Behr ist ein praxisorientiertes und zugleich tiefgründiges Werk über eine der zentralen, oft unterschätzten Anforderungen moderner Führung: die Fähigkeit, wirkungsvoll zu kommunizieren. Behr, selbst erfahrener Medientrainer und Kommunikationsberater für Topmanager, verbindet in seinem 149 Seiten starken Buch theoretische Fundierung mit unmittelbarer Anwendbarkeit – ein Leitfaden, der die Kunst des Führens nicht über Kennzahlen, sondern über Haltung, Sprache und Resonanz neu denkt. Immer wieder holte ich mir in der Vergangenheit Inspiration für meine Arbeit aus seinen Shorts in sozialen Netzen. Jetzt kann ich (endlich) dazu auch sein Buch nutzen.

Im Aufbau zeigt sich die klare Struktur des Werks: Sechs Hauptkapitel führen die Leserinnen und Leser von der Einordnung klassischer Managementaufgaben über die zentrale Rolle der Kommunikation bis hin zu konkreten Werkzeugen und Modellen. Besonders hervorzuheben ist der sogenannte G.A.M.E.-Code, ein von Behr eigens entwickeltes Konzept zur systematischen Verbesserung der Kommunikationsqualität. Er steht exemplarisch für den Ansatz des Buches, Kommunikationsprozesse greifbar und trainierbar zu machen. In weiteren Kapiteln behandelt Behr Themenfelder wie empathische Gesprächsführung, aktives Zuhören, rhetorische Klarheit, digitale Medienkompetenz sowie den Umgang mit interkulturellen Differenzen im Führungsalltag.

Bemerkenswert ist die Sprache, die Behr wählt: präzise, unpathetisch, aber von spürbarer Leidenschaft für sein Thema getragen. Er vermeidet die Floskelhaftigkeit vieler Leadership-Ratgeber und arbeitet stattdessen mit Fallbeispielen aus realen Unternehmen, wissenschaftlich fundierten Argumenten und nachvollziehbaren Kommunikationsstrategien. In Zitaten wie „Wer Kommunikation nur als Soft Skill betrachtet, unterschätzt ihren Hebel für echte Transformation“ wird seine Kernbotschaft deutlich – Führung ist kein Status, sondern Beziehungsarbeit, und Sprache das wichtigste Werkzeug dieser Beziehung.

Das Buch richtet sich ausdrücklich an Führungskräfte aller Ebenen – vom Teamleiter bis zur Geschäftsführung – und eignet sich auch für Coaches und Trainer, die Kommunikationsarbeit vertiefen möchten. Bei der Lektüre habe ich festgestellt, was ich in meiner Führungspraxis so manches Mal falsch gemacht habe, indem ich Mitarbeitern meine Ideen nicht immer vermitteln konnte. Hätte ich dieses Buch bloß früher gelesen.

Seine Stärke liegt dabei in der Balance zwischen Reflexion und praktischer Nutzbarkeit: Behr bietet nicht nur Anregungen, sondern konkrete Übungen und Denkroutinen, die sich in den Führungsalltag integrieren lassen. Gerade in einer Zeit hybrider Arbeitsmodelle und digitaler Distanz wirkt seine Forderung nach Empathie und Präsenz im Dialog dringlicher denn je. Ich hatte zu meiner Zeit noch alle Mitarbeiter im Büro am Ort sitzen, daher empfand ich die Ausführungen zur digitalen Führung besonders spannend.

„Führungsaufgabe Nr. 1: Kommunikation“ ist mehr als ein weiterer Managementratgeber – es ist für mich ein Plädoyer für sprachbewusste, menschlich orientierte Führung. Nikolai Behr gelingt es, Kommunikation als strategisches Führungsinstrument zu begreifen und zugleich deren ethische Dimension offenzulegen: dass gute Führung immer mit ehrlichem Zuhören und respektvollem Sprechen beginnt. Für alle, die in modernen Organisationen gestalten, motivieren und überzeugen wollen, sollte dieses Buch eine inspirierende Pflichtlektüre sein.

Die Hauptthesen
Die Hauptthesen von Nikolai A. Behrs Buch „Führungsaufgabe Nr. 1: Kommunikation“ (brain script Verlag, 2025) lassen sich in fünf Kernaussagen zusammenfassen. Sie beschreiben Kommunikation als den entscheidenden Hebel moderner Führung und begründen, warum sie weit mehr ist als ein „Soft Skill“.

Erstens: Kommunikation ist die wichtigste Führungsaufgabe. Behr argumentiert, dass alle wesentlichen Managementprozesse – Motivation, Orientierung, Strategieumsetzung – durch Kommunikation vermittelt werden. Ohne klare, konsistente Kommunikation scheitert jede Führung, unabhängig von Fachkompetenz oder Hierarchie.

Zweitens: Empathie und Klarheit sind die Leitwerte wirksamer Führung. Gute Führung beginnt mit aktivem Zuhören und setzt emotionale Intelligenz voraus. Nur wer die Perspektive anderer nachvollzieht, kann Vertrauen und Bindung aufbauen – zentrale Faktoren für Mitarbeitermotivation und Zusammenarbeit.

Drittens: Kommunikation wirkt auf allen Ebenen – verbal, nonverbal und digital. Behr betont, dass Führungskräfte ihre Wirkung in Präsentationen, Meetings, E-Mails oder Videokonferenzen bewusst gestalten müssen. Zugleich warnt er vor der Illusion, Kommunikation sei bloß Rhetorik; sie ist immer auch Haltung und gelebte Authentizität.

Viertens: Kommunikation entscheidet über den Erfolg von Veränderungsprozessen. Besonders in Krisen, Transformationen und hybriden Arbeitsumgebungen ist Verständlichkeit das wichtigste Führungsinstrument. Behr fordert eine proaktive, wertschätzende Sprache, die Orientierung gibt und Ängste abbaut.

Fünftens: Kommunikation ist trainierbar. Mit dem von Behr entwickelten G.A.M.E.-Code bietet das Buch ein praxisnahes System, um Kommunikationsmuster zu analysieren, Feedbackprozesse zu verbessern und Botschaften wirksamer zu gestalten. Der Ansatz steht für die These, dass kommunikative Exzellenz kein Zufall, sondern Ergebnis bewusster Selbstreflexion und Übung ist.

Vertrau mir bei der Urlaubsplanung, ich bin ein Agent

4. August 2025

KI rauf und runter und die Künstliche Intelligenz stellt die Welt auf den Kopf. Berufe verändern sich radikal und mit der Einführung von Agents in ChatGTP wurde ein weiterer Schritt der Veränderung beschritten.

Agents
In ChatGPT bezeichnen „Agents“ spezialisierte, eigenständige Instanzen des Sprachmodells, die für bestimmte Aufgaben oder Anwendungsbereiche konfiguriert sind. Diese Agents verfügen über spezifisches Wissen, Funktionen oder Werkzeuge, um Nutzern gezielt bei komplexen Fragestellungen oder Prozessen zu helfen. Beispielsweise kann ein Agent für Programmierung, Datenanalyse oder Textbearbeitung eingerichtet sein und entsprechend optimierte Antworten liefern. Dabei agieren Agents innerhalb des Systems wie digitale Assistenten mit bestimmten Rollen, unterscheiden sich jedoch von allgemeinen Chatverläufen durch ihre Spezialisierung und Zielorientierung.

Klingt kompliziert, bedeutet aber in einfachen Worten: In ChatGPT sind „Agents“ so etwas wie kleine, spezialisierte Helfer. Jeder Agent ist für eine bestimmte Aufgabe gedacht – zum Beispiel für Programmieren, Texte schreiben oder Daten auswerten. Man kann sich das wie verschiedene Expertinnen und Experten vorstellen, die jeweils auf ein Thema spezialisiert sind. Wenn man also eine bestimmte Frage hat, kann ein passender Agent dabei helfen, schneller und gezielter eine gute Antwort zu finden.

So lassen sich zunächst Aufgaben erledigen, wie Tisch in einem Restaurant oder Kinokarten buchen. Ich habe Agents bei einem anstehenden Besuch eines Weinfestes der Winzerei Graßmück in der Pfalz ausprobiert. Ich habe Simon Graßmück im Gasthof Heinzinger kennengelernt. Danke Denis für den Kontakt.

Wie wäre es, wenn die KI Vorschläge für eine Urlaubsreise macht. Das kann sich eine Mehrheit von 58 Prozent der deutschen Urlauber vorstellen. 25 Prozent würden demnach einer KI dabei auf jeden Fall vertrauen, weitere 33 Prozent eher. Unter den 16- bis 29-Jährigen würden sogar 66 Prozent einer KI die komplette Urlaubsplanung und -buchung überlassen, in der Altersgruppe ab 65 Jahren mit 46 Prozent aber auch noch fast die Hälfte. Das sind Ergebnisse einer repräsentativen Befragung unter 1.006 Personen ab 16 Jahren, darunter 955 Urlauberinnen und Urlauber, im Auftrag des Digitalverbands Bitkom.

Schon jetzt nutzen viele KI-Anwendungen wie ChatGPT oder Google Gemini, um sich die Urlaubsvorbereitung zu erleichtern, und zwar allen voran für Tipps zu Unterkünften und Reisezielen. 22 Prozent der Urlauber haben sich von einer KI-Anwendung Unterkünfte vorschlagen lassen, weitere 44 Prozent sind offen dafür. 18 Prozent haben sich bereits von KI Reiseziele vorschlagen lassen, und ebenfalls 44 Prozent können sich dies zukünftig vorstellen.

Für Vorschläge zu Ausflügen oder Aktivitäten am Urlaubsort wie Sehenswürdigkeiten, Freizeitaktivitäten oder Veranstaltungen haben 12 Prozent der Urlauber bereits KI genutzt. Offen wären dafür weitere 39 Prozent. 11 Prozent lassen sich bisher Routen vor Ort, zum Beispiel für Stadtrundgänge, vorschlagen und auch hier wären weitere 39 Prozent zukünftig für KI-Hilfe offen. Beim Kofferpacken und kurzfristigen Informationen sind die deutschen Urlauber hingegen noch eher zurückhaltend: Nur 8 Prozent haben sich von KI bereits Packlisten für Ihren Urlaub erstellen lassen. Und nur für weitere 15 Prozent kommt es zukünftig in Frage, sich von einer KI beim Kofferpacken helfen zu lassen. Auch bei aktuellen Informationen über das Reiseziel wie Reisewarnungen oder Impfungen vertraut bisher nur 1 Prozent KI-Anwendungen. Hier ist aber das Potential besonders hoch; zukünftig offen wären dafür 46 Prozent.

Wenn die KI Halluzinationen hat

15. Februar 2024

Ich beschäftige mich gerade damit, wie vertrauensvoll eigentlich die Ergebnisse von KI sind. Ich bereite dazu ein Online-Seminar vor. Wir wissen alle, dass ChatGPT und Co falsche Aussagen liefern können und es gibt genügend Beispiele, wie folgenreich waren. Wir erinnern uns: Im Frühjahr 2023 sanktionierte ein US-Richter eine US-Anwaltskanzlei, weil sie in einem Schriftsatz, den ein Chatbot verfasst hatte, Rechtsgutachten mit gefälschten Zitaten zitiert hatte.

Und dennoch setzte ich in meiner täglichen Arbeit Werkzeuge wie ChatGPT ein, prüfe aber die Ergebnisse gewissenhaft. Fast schon ein wenig psychedelisch nennen die Experten diese Fehler dann auch Halluzinationen.

Aber wie lassen sich diese Halluzinationen eindämmern, vor allem wenn sie im beruflichen Umfeld genutzt werden? In Unternehmen, die Chatbots für Kunden und Mitarbeiter einsetzen, kann nur eine einzige KI-Erfindung Unternehmen vor Gericht bringen und den Ruf ruinieren.

Mit der wachsenden Zahl von KI-gestützten Chatbots steigen also die Risiken, dass diese nicht wie gewünscht funktionieren. Unsinnige oder ungenaue Ausgaben oder Antworten, die nicht aus den Large Language Modells (LLMs) herausgefiltert werden können, verbleiben in dem Daten-Pool der Chatbots und versauen die Antworten.

Schlechte Trainingsdateien
Halluzinationen treten auf, wenn die Daten, die zum Trainieren von LLMs verwendet werden, von schlechter Qualität oder unvollständig sind. Die Häufigkeit liegt bei den meisten KI-Plattformen zwischen 3 % und 8 %. Bei Customer-Service-Chatbots kann die Bereitstellung falscher Ratschläge oder Informationen wichtige Ziele wie die Kundenzufriedenheit negativ beeinflussen. Sie können auch in hochkomplexen (und regulierten) Sektoren wie dem Gesundheitswesen oder dem Finanzwesen zu Verwirrung und Schaden führen.

Folgenreich
In IT-Organisationen richten KI-Pannen auch auf andere Weise verheerende Schäden an. Chatbots können Service-Tickets falsch zuweisen, ein Problem ungenau beschreiben oder Arbeitsabläufe stören und zu erheblichen systemischen Problemen führen.
Für Ingenieure kann ein KI-generierter Code, der in der Softwareentwicklung verwendet wird, Sicherheitslücken oder geistiges Eigentum enthalten, das während des Trainings aufgenommen wurde. KI-Systeme können auch komplexe Fehler oder Sicherheitsprobleme übersehen, die nur ein Entwickler erkennen und beheben würde.

Was ist zu tun?
Also was ist zu tun, um die Risiken zu minimieren?
Inhaltsfilter: Eine Vielzahl von technischen oder richtlinienbasierten Leitplanken kann vor unangemessenen oder schädlichen Inhalten schützen. Beispielsweise können Inhaltsfilter die Beantwortung von Fragen zu sensiblen Problemen oder Themen ablehnen. Beim Customer-Service sollte ein Chatbot eine Anfrage schnell an einen menschlichen Mitarbeiter übergeben, wenn er verwirrt ist oder nicht in der Lage ist, die genaue Antwort zu finden.
Besser Datenqualität: Bei der Schulung von LLMs sollten IT-Teams die Daten validieren, um sicherzustellen, dass sie qualitativ hochwertig, relevant und umfassend sind. Trainingsdaten sollten regelmäßig überprüft werden, um sich vor „Modelldrift“ oder Leistungseinbußen zu schützen, die aufgrund von Änderungen des zugrunde liegenden Datenmodells im Laufe der Zeit auftreten.
Leitplanken: Durch die Einschränkung der Fähigkeit der Chatbots, sich mit Apps und Diensten von Drittanbietern zu verbinden, wird die Möglichkeit vermieden, irreführende, ungenaue oder potenziell schädliche Daten zu generieren. Nebeneffekte des Sandboxings des Chatbots auf diese Weise sind eine bessere Leistung (weniger Abhängigkeiten) und eine verbesserte Compliance für die Branchen, in denen dies unerlässlich ist.

Forschung arbeitet an Lösungen
Halluzinationen mögen heute ein Problem sein, aber die Forschung ist im Gange, das Problem zu lösen. In dem Bemühen, sowohl die Genauigkeit als auch die Zuverlässigkeit zu verbessern, wird alles untersucht, von der Erstellung größerer Modelle bis hin zur Selbstdurchführung der Faktenprüfung durch LLMs.
Und erste Schritt werden unternommen. Das von CISPA Helmholtz-Zentrum für Informationssicherheit unterstützte Startup QuantPi wird mit 2,5 Millionen Euro vom European Innovation Council (EIC) gefördert. Das Geld soll für den Aufbau einer Plattform für vertrauenswürdige generative Künstliche Intelligenz (KI) verwendet werden.

Diese Förderung unterstützt QuantPi bei seiner Pionierarbeit für die sichere Nutzung generativer KI. Das Startup arbeitet daran, der Gesellschaft ein sicheres und selbstbestimmtes Leben mit Künstlicher Intelligenz zu ermöglichen. Die Fördersumme will das Unternehmen dafür einsetzen, die aktuelle auf KI basierende Testtechnologie weiterzuentwickeln, um somit die erste automatisierte Risikomanagement-Plattform aufzubauen, die Sicherheit, Fairness und Erklärbarkeit generativer KI-Systeme ermöglicht.
Die Technologie von QuantPi bietet Anbietern generativer KI-Systeme die Chance, höchste ethische Standards auf ihre Produkte anzuwenden. Firmen, die GenAI-Tools kaufen möchten, können mit Hilfe der Plattform Risikobewertungsprozesse während der Beschaffung automatisieren – zum Schutz ihrer Kunden und zur Sicherstellung, dass lediglich hochwertige KI gekauft wird. Zudem wird geprüft, ob die KI-Systeme den strengen Tests zur Einhaltung von EU-Standards standhalten können.

Der CEO von QuantPi, Philipp Adamidis, äußerte sich begeistert über die Förderung und erklärte: „Dies ist ein Beweis für die harte Arbeit und das Engagement des gesamten QuantPi-Teams. Wir freuen uns, dass wir diese Mittel nutzen können, um den sicheren und verantwortungsvollen Einsatz von KI zu gewährleisten, ohne dabei den Fortschritt zu bremsen. Die Förderung beschleunigt nicht nur unsere Forschungs- und Entwicklungsbemühungen, sondern unterstützt auch unser Engagement, einen positiven Beitrag für die Gesellschaft zu leisten.“