Interview mit KI-Ethiker

«Wissen ist in der jetzigen Arbeitswelt überbewertet»

In ihrem neuen Buch stellen sich Christian Hugo Hoffmann und sein Co-Autor Sebastian Rosengrün die Frage: Wie sieht ethische Führung im KI-Zeitalter aus? Ein Gespräch über Verantwortung, Fehlerkultur und Effizienzdruck.

HR Today: Herr Hoffmann, viele Autoren, die derzeit zum Thema Leadership und KI publizieren, sind etwa Consultants. Sie und Ihr Co-Autor hingegen sind nicht nur Unternehmer, sondern auch Philosophen. Was für einen Unterschied macht das?

Christian Hugo Hoffmann: Mein Co-Autor Sebastian Rosengrün und ich nehmen zwei unterschiedliche Perspektiven ein. Was uns aber verbindet, ist die Philosophie. Wir haben beide ein grosses Interesse am verantwortungsvollen Umgang mit künstlicher Intelligenz in der Praxis. Die philosophische Herangehensweise bringt uns dazu, die Frage zu stellen, ob das, was wir tun, gut ist. Nicht nur gut im Sinne der ökonomischen Praxis, sondern auch, ob das gesellschaftlich und moralisch gut ist. Wir wollen mit dem Buch zum Nachdenken anregen. Das Buch versteht sich daher nicht als Ratgeber, dessen Tipps man einfach wie eine Maschine umsetzen muss und dann eine gute Führungskraft im Zeitalter von KI ist. Der Arbeitstitel des Buchs war zunächst «17 Tipps für Führungskräfte». Als das Manuskript dann stand, haben sowohl wir beide als auch unser Lektor gemerkt: Das sind keine Tipps – das geht sehr viel mehr in die Tiefe. Das sind die Vorzüge einer philosophischen Herangehensweise. Das ist etwas, was in diesem Diskurs fehlt.
 

Eines der Buchkapitel heisst «Denke KI langfristig – unterschätze nie ihre Folgen». Wagen wir zu Beginn also einen Blick in die Zukunft: So wie sich KI, deren Regulation und Adoption in Gesellschaft und Wirtschaft entwickelt hat – wo stehen wir in zehn Jahren?

Hoffmann: Der Titel dieses Kapitels ruft schnell die Befürchtung hervor, die man aus den Medien kennt: der Aufstieg der Maschinen und die Angst, diese würden uns alle ersetzen. Was wir vielmehr damit meinen: Wenn man für das Navigieren von A nach B leichtfertig auf Tools wie Google Maps zurückgreift oder ChatGPT dazu benutzt, die eigenen Gedanken vom Deutschen ins Englische zu übersetzen, merkt man: das ist bequem. Die Konsequenz davon ist, dass wir unsere eigenen Fertigkeiten vernachlässigen und diese dann im Zweifel auch gar nicht mehr ausbilden. Es geht uns hier aber nicht darum zu sagen, man sollte das nicht tun. Man sollte sich aber immer im Klaren darüber sein, was die Konsequenzen des eigenen Handelns sind.


Zitat von Christian Hugo Hoffmann: Wir wollen keine Schwarzmalerei betreiben, aber auch keinen naiven Techoptimismus.

Sie greifen bereits auf ein Thema vor – nun habe ich Sie aber nach Ihrer Prognose gefragt. Ist das denn Ihre Prognose – dass wir durch KI unsere Fertigkeiten verlieren werden?

Hoffmann: Diese Gefahr ist schwer einzuschätzen. Wir wollen keine Schwarzmalerei betreiben, aber auch keinen naiven Techoptimismus. Wir sind da pragmatisch und unvoreingenommen. Da wir unser Buch aber nicht als Ratgeber verstehen, muss man also mitdenken – und deswegen drücke ich mich ein bisschen von der Frage, wie die Welt in 10 Jahren aussieht. Es gibt reale Probleme, die wir angehen müssen. Darauf weisen bereits einige Studien und Statistiken hin. Das heisst aber nicht, dass dieser Weg determiniert ist. Ich leite das AI Startup Center in Zürich und versuche dort, KI-basierte Innovationen tatsächlich in die Welt zu bringen. Nicht nur solche, die der Rationalisierung und Automatisierung frönen, sondern Innovationen, die auch die Arbeit qualitativ aufwerten sollen. Und das mit Menschen, die diese Innovationen entwickeln und zu verantworten haben. Heisst: Unternehmen haben eine Verantwortung gegenüber ihren Mitarbeitenden. Sie können darauf einwirken, dass sie in die neue Zeit mitgenommen werden können und auch Perspektiven aufgezeigt bekommen, wie sie künftig mit KI arbeiten können.
 

Sie schreiben, «falsche Ehrfurcht» sei kein guter Berater, man solle sich aber auch nicht in «Technik» verlieben. Mitdenken, Verantwortung übernehmen und Ergebnisoffenheit – ist das eine Grundposition, die man KI gegenüber also einnehmen sollte?

Hoffmann: Ich würde es nicht darauf verkürzen, man solle schlicht offen im Sinne von Passivität sein. Bleibt man passiv, wird man schicksalsgläubig. Aber wir möchten dazu einladen, sich erst einmal darauf einzulassen. Das bedeutet für uns, dass Mitarbeitende neugierig sind und dass sie Dinge austesten, dass sie lernen, mit KI zu arbeiten und sich auf dieser Basis eine Meinung bilden.
 

Sie sprechen es bereits an: Ausprobieren, experimentieren. Die Wichtigkeit der Fehlerkultur wird im Unternehmenskontext allenthalben betont. Ihr Buch kritisiert aber das Feiern der Niederlage als «Heldenmythos des gescheiterten Gründers», als «ideologische Waffe» und «therapeutisches Schulterklopfen» – wie es etwa im Silicon Valley geschehe. Dieses Mindset hat tatsächlich schon viel Schaden angerichtet. Nun ist KI da und hat das Potenzial zu noch grösserer Disruption, als wir sie bisher erlebt haben. Ein verantwortungsvoller Umgang damit scheint darum umso wichtiger. Wie kommen wir zu einer richtigen Fehlerkultur, fernab des Romantisierens?

Hoffmann: Wir versuchen mit unserem Buch einen Mittelweg einzuschlagen. Ich will das nicht zu sehr verallgemeinern, aber wir haben in Europa – oder zumindest dem deutschsprachigen Raum – eine Kultur, in der wir uns für Fehler schämen und dafür Tadel ernten. Vor diesem Hintergrund sagen wir zunächst: Lasst Fehler zu, denn Fehler sind wichtig. Ohne Fehler, ohne Scheitern können keine Innovationen reifen und entstehen – und Innovationen sind wirtschaftlich und gesellschaftlich schliesslich wünschenswert. Vereinfacht man das aber zu sehr, gelangt man schnell zum angesprochenen Silicon-Valley-Mindset: «Move fast and break things» («Bewege dich schnell und mache Dinge kaputt»). Das wollen wir natürlich nicht. Am Ende möchten wir zeigen, dass es tatsächlich nicht so trivial und einfach zu bestimmen ist, was gute Führung ist oder wie man KI richtig nutzt. Es funktioniert nicht, Fehler um ihrer selbst willen zu begehen und sich dann dafür feiern zu lassen. Das Frappierende ist, dass es eben tatsächlich solche Exzesse gibt, gerade unter Startups. Und so holen wir die Frage wieder ein: Man muss in diesem Spannungsfeld darüber nachdenken, wie eine gute Fehlerkultur entstehen kann.


Zitat von Christian Hugo Hoffmann: KI-Systeme sind spezialisiert und haben klare Werte und Einsatzmöglichkeiten, vorgegeben durch die Menschen dahinter – und deswegen tragen diese eine klare Verantwortung.

Sie schreiben, Führungspersonen sollten im Umgang mit KI souverän bleiben, das heisst: die Kontrolle behalten. Je mehr Aufgaben KI für uns übernimmt, je mehr wir uns auf ihre Analysen und Ratschläge verlassen, desto schwieriger wird das. Wie schaffen wir das?

Hoffmann: Die prägnanteste und wichtigste Antwort auf diese Frage ist, dass der Mensch immer die Verantwortung tragen muss: für KI, wie sie heute vorhanden ist, wie wir sie früher hatten – und wie sie in naher Zukunft sein wird. Nun ist Technik nie neutral, KI ist kein reines Tool. Sie ist für einen Zweck gemacht. KI-Systeme sind spezialisiert und haben klare Werte und Einsatzmöglichkeiten, vorgegeben durch die Menschen dahinter – und deswegen tragen diese eine klare Verantwortung.
 

Trotzdem bietet die Arbeitswelt viele Anreize, sich eben viele Dinge zu erleichtern. Oder es existiert Effizienzdruck auf Seiten der Nutzenden.

Hoffmann: Auch die Nutzer oder Kunden von KI-Unternehmen tragen Verantwortung. KI ist eine Technologie, bei der vieles intransparent ist. Das hat auf der einen Seite betriebswirtschaftliche Gründe, auf der anderen Seite liegt es an der Technologie selbst. Da diese eher im Backend statt im Frontend verwendet wird, ist der Nutzer in der schwierigeren Position, Verantwortung zu übernehmen. Wir ermutigen sie aber trotzdem dazu – siehe das Beispiel mit Google Maps. Sonst entstehen Verantwortungslücken und das ist höchst unbefriedigend. Nicht im juristischen, sondern im moralischen Sinne, dafür, wie unsere Gesellschaft funktioniert. Wir wollen, dass Menschen für das Einstehen, was sie tun. Darum sprechen wir hier nach wie vor von menschlichen Handlungen und der Mensch ist an dieser Stelle der einzige relevante Akteur. Wir weisen aber darauf hin, dass KI so eine tiefgreifende und einschneidende Technologie ist, dass man künftig vielleicht von Teams sprechen könnte, die sich nicht nur aus Menschen, sondern auch aus KI-Mitgliedern zusammensetzen. Ich stelle mir das wie eine gut funktionierende, professionelle Grossküche vor. Da gibt es einen Chefkoch, einen Sous-Chef, Hilfsköche und so weiter. Der Chef hat das Sagen und er trägt die Verantwortung für das Menü im Gesamten – aber dennoch sind die anderen elementar für das, was da entsteht.
 

Das Bild zeigt den Interviewee in schwarz-weiss. Ein Mann mit kurzen Haaren, Hemd und Sakko mit Einstecktuch. Beschreibung: Dr. Dr. Christian Hugo Hoffmann ist Philosoph, KI-Unternehmer und Clusterpreneur. Er hat mehrere Startups in der Schweiz, aber auch in Deutschland und afrikanischen Ländern gegründet und geleitet. Heute fungiert er als Gründer und Direktor des AI Startup Centers, einem Innovationsökosystem für Künstliche Intelligenz. Er gilt als ausgewiesener Experte für einen ethischen Kapitalismus und berät Unternehmen.  

Sprechen wir von Verantwortung, sprechen wir von Werten. Einerseits sagen Sie, KI biete uns die Möglichkeit, unsere Werte – also auch unternehmerische Werte – zu leben, aber Sie sagen auch, man solle kein «Moralapostel» sein. Wo ist hier der Unterschied?

Hoffmann: Mit dem Kapitel über Werte wollen wir unter anderem aufzeigen, dass es sich nicht darin erschöpfen kann, einen Verhaltenskodex zu definieren und diesen dann Top-Down an die Belegschaft weiterzugeben. Mein Co-Autor Sebastian Rosengrün wollte in diesem Kapitel vermitteln, dass es keine «Neuerschaffung» von Werten braucht. Die Werte, die wir jetzt besitzen, sind dadurch bestimmt, dass sie über die Zeit hinweg Bestand haben. Sie sind ein Fixpunkt, an dem man sich orientiert. Mein Co-Autor wollte also dazu aufrufen, diese Werte an die neuen Gegebenheiten anzupassen – nicht, sie über Bord zu werfen, nur, weil man glaubt, wir seien vom analogen in ein neues digitales Zeitalter übergegangen und meint, deswegen müsse man nun alles neu denken. Es kann aber auch nicht sein, die Frage nach den Werten zum Dreh- und Angelpunkt der Diskussion zu machen. Es geht nicht nur darum, ethisch informiert zu werden, über Ethik zu diskutieren und nachzudenken, sondern um ein konkretes moralisches Handeln – und dabei wollen wir unterstützen. Betreffend Moralapostel: Es ist uns auch wichtig, dass man mit den eigenen Werten nicht in die Welt hinausgeht und andere belehrt. Wir wollen, dass man nicht vergisst – und das auch mit Bescheidenheit goutiert –, dass wir in einer Welt leben, in der sich vieles ändert und es nicht viele klare, unbestreitbare Wahrheiten gibt. Das gilt insbesondere für das Feld der Moral, und da sollte man die Kirche im Dorf lassen und zugestehen, dass man selbst Fehler auch macht – und vor diesem Hintergrund dann vorurteilsfrei und auf Augenhöhe mit den Menschen in die Kommunikation tritt, statt sie anzuprangern.
 

Und inwiefern hat das nun mit KI zu tun?

Hoffmann:  Erstmal gar nicht so viel. Darum ist unser Buch auch ein Mix aus Dingen, die KI-spezifisch sind und aus allgemeiner gehaltenen Ratschlägen, die im Zeitalter des erweiterten Einsatzes von KI vielleicht eine neue Brisanz oder Wichtigkeit bekommen. Wir erleben gerade durchaus, dass KI-Tools gut eingesetzt werden, etwa um Meeting-Notes zusammenzufassen – aber auch, dass man Wege findet, um den direkten Austausch mit anderen zu umgehen. Das mag Zeit sparen und Effizienz steigern, führt aber dazu, dass Menschen nicht mehr direkt miteinander sprechen. Sie empfinden zum Beispiel etwas als störend, sprechen das dann aber nicht mehr direkt an, sondern geben sich einem Mechanismus hin. Ja, was soll man damit anfangen? Was macht man, um das zu verbessern?


Christian Hugo Hoffmann, ein Mann mit dunklen Haaren, sitzt lächelnd im Vordergrund in einem hellen Raum mit großen Fenstern. Er trägt ein weißes Hemd mit bunten Schmetterlingsmotiven, eine helle Jeans und eine Armbanduhr. Im Hintergrund steht ein Roll-up-Banner mit dem Logo und Text "AI STARTUP CENTER", einem QR-Code und einer abstrakten, farbenfrohen Grafik eines Gesichts.

Hier muss die Führung wohl Akzente setzen. Sie sagen, gute Führung benötige nicht einfach Fachkompetenz. Es brauche «Weltwissen, Charakter und Neugier». Allerdings sagen Sie das auch gerade jetzt, wo Skills-Ansätze, etwa im Rekrutierungsprozess, immer mehr an Bedeutung gewinnen.

Hoffmann: Die Welt ist sehr dynamisch, es ändert sich gerade viel – gerade auch mit KI-Innovationen. Man sollte sich deshalb nicht in dieses Hamsterrad begeben und dem Aufbau spezieller Wissensfelder und jedem neuen Trend hinterherjagen. Ganz allgemein: Das ganze Thema «Wissen» ist vor dem Hintergrund der jetzigen Arbeitswelt überbewertet. Es geht um die Ausbildung von Charakter, von Werten – und auch von Kompetenzen. Wir möchten die Menschen dazu einladen, sich mit sehr, sehr viel mehr Dingen zu beschäftigen, die ihren Horizont erweitern. Mein Co-Autor hat lange Zeit an einer sehr praktisch orientierten Hochschule als Philosophie-Dozent gewirkt. Dort ging es spezifisch darum, Startup-Unternehmer auszubilden. Mit diesen Leuten hat er zum Beispiel Filme geschaut, damit meine ich nicht einfach «Terminator» – es gibt ja wirklich gute Filme, zum Beispiel «Her». Oder man kann mit ihnen ins Museum gehen, sie dazu anhalten zu reisen und dadurch ihren Horizont zu erweitern. All das ist speziell für Führungskräfte sehr viel entscheidender, weil sie Generalisten sein müssen.
 

Trotzdem – und das ist ja auch logisch – entscheiden Führungskräfte, wie man gerne sagt, auf Basis harter Fakten, das heisst: Zahlen. Wo sehen Sie hier die ökonomischen Anreize für Führungskräfte, Menschen eben nicht durch KI zu ersetzen und sich auf das Menschliche – und den zu erweiternden Horizont – einzulassen? Das ist ja jetzt an mehreren Orten bereits geschehen. Es muss hier also wohl ein Zusammenspiel geben.

Hoffmann: Ohne erhobenen Zeigefinger möchte ich nochmal sagen: Arbeitgeber haben eine Verantwortung für ihre Mitarbeitenden. Das heisst, sie müssen ihren Mitarbeitenden Perspektiven aufzeigen – und auch besser verstehen, was die Mitarbeitenden eigentlich den ganzen Tag machen. Verkürzt gesagt: Man geht Big-Tech-Unternehmen zu oft auf den Leim, die sich mit ihrer Agenda besser verkaufen als das Produkt, das sie eigentlich liefern. Man glaubt schnell, dass viele Dinge einfach zu automatisieren sind. Was daran allerdings stimmt, muss man sich immer wieder aufs Neue fragen. Zumindest bis vor kurzem konnte man Menschen im Callcenter nicht einfach durch einen Chatbot ersetzen. Die Realität: Kunden müssen sich mit einem nervigen Chatbot abgeben, was den Prozess dann in die Länge zieht. Führt das zu keinem Ergebnis, landet man bereits völlig entnervt bei menschlichen Mitarbeitenden – und diese können die Beziehung zum Kunden auch nicht mehr retten. Das dient dann als Anlass, um zu sagen, der menschliche Mitarbeitende sei nicht in der Lage, eine positive Beziehung zu den Kunden aufzubauen und der Mensch müsse deshalb von der Maschine ersetzt werden – das ist ein falsches Narrativ und birgt die Gefahr der selbsterfüllenden Prophezeiung. Aber statt zu klagen, das sei nicht gut, muss man Alternativen schaffen. Darum ist es uns wichtig, dass sich Führungskräfte in Startups engagieren, weil diese Vielfalt und Dezentralität ermöglichen. So entsteht mehr Wettbewerb zwischen Ideen. Diese Ideen müssen dabei nicht nur Geschäfts- oder Produktideen sein, sondern auch Ideen zu Herangehensweisen, etwa, wie man mit Kunden sprechen möchte. Derzeit fehlt einfach die Vielfalt und das ist ein grosses Problem. Das hat viel mit der Monopolbildung und Macht von Big Tech zu tun. Ich denke nicht, dass das die einzige Möglichkeit ist, digitalen Kapitalismus zu denken.


Zitat von Christian Hugo Hoffmann: Derzeit fehlt die Vielfalt. Das ist ein Problem, das viel mit der Monopolbildung und Macht von Big Tech zu tun hat. Ich denke nicht, dass das die einzige Möglichkeit ist, digitalen Kapitalismus zu denken.

Vielfalt und Regulation werden oft als gegenteilig empfunden. Regulation wirke innovationshemmend. In einem Kapitel bezeichnet Ihr Co-Autor Regulationen aber als Chance.

Hoffmann: Ich sehe sie nicht als «Chance», verstehe aber seinen Punkt: Man muss die Welt so hinnehmen, wie sie ist. Man kann sich zwar eine viel bessere Welt wünschen, aber das hilft im Business nicht. Im Business muss man sich mit dem arrangieren, was man kurz- und mittelfristig vorfindet. Man kann natürlich parallel darauf einwirken, die Umstände zu ändern. Wir haben jetzt den EU AI Act. Der ist sicher nicht das Gelbe vom Ei und vielleicht zu viel des Guten. Aber darauf muss man sich nun einlassen und kann die Auseinandersetzung damit vielleicht als Wettbewerbsvorteil nutzen. Die kritische Sicht: Wenn wir mehr Innovationen wollen – und das wollen wir, wenn wir vergleichen, wie viel Wohlstand wir im Vergleich zu den USA oder China über die letzten Jahre geschaffen haben –, müssen wir sehen, dass Regulierung ein Problem darstellt. Und zwar, weil Regulierung grössere Unternehmen bevorzugt, da diese sich den Umgang damit – etwa Juristen und Berater zu engagieren – besser leisten können. Bei Startups geht das zulasten der Entwicklung der Innovation, die sie vorbringen, testen und weiterentwickeln wollen. Was es vielleicht bräuchte, ist, beide Punkte von Anfang an mitzudenken: sich einerseits auf das Business einzulassen und gleichzeitig bereits darüber nachdenken, wie man die Umstände längerfristig ändern kann. Ich plädiere hier für eine schweizerische Herangehensweise mit mehr Pragmatismus. Es braucht mehr Möglichkeiten, Technologien unter tatsächlichen Bedingungen testen zu können, um den Regulator so einspannen zu können, dass er auf Basis empirischer Evidenz aktiv werden kann, um langfristige Bedingungen zu schaffen, die nicht zu Lasten dessen gehen, was wir als Gesellschaft wollen, nämlich Wohlstand und Innovation – und die Zentralität und Machtkonzentration von Monopolen aufzubrechen.

Buchtipp mit Cover: In «Mensch. Macht. Maschine.» zeigen Christian Hugo Hoffmann und Sebastian Rosengrün wie Technik und Menschlichkeit Hand in Hand gehen. Ihr Buch bietet praxisnahe Wege, um zu einem moralischen KI-Leader zu werden, Verantwortung zu übernehmen und eine werteorientierte Führungskultur zu etablieren.
Kommentieren 0 Kommentare HR Cosmos
Porträt einer Person mit mittellangem, leicht gewelltem Haar und Bart, vor einem neutralen, strukturierten Hintergrund. Die Person trägt ein Hemd mit kleinen Punkten, schaut leicht zur Seite und lächelt subtil. Das Bild ist in Schwarz-Weiss gehalten.

Robin Adrien Schwarz ist Online-Redaktor bei HR Today. Er befasst sich vor allem mit Themen am Überschneidungspunkt von Politik, Gesellschaft und Technologie. rs@hrtoday.ch

Weitere Artikel von Robin Adrien Schwarz

Das könnte Sie auch interessieren