Der ganz
formale Wahnsinn

Einwürfe von Stefan Kühl zu
aktuellen Themen des Managements

Kolumnen

Wieso ist es leicht Transparenz zu fordern, aber so schwer, sie umzusetzen? Wie wichtig sind Netzwerke in modernen Organisationen? Was steckt hinter dem Purpose-Hype? Zu diesen und über 100 weiteren Themen rundum das kluge Organisieren  von Unternehmen, Verwaltungen, Ministerien, Universitäten, Schulen, Armeen, Polizeien, Parteien und Vereinen erscheint hier jede Woche montags eine neue Kolumne von Stefan Kühl.

Der ganz
formale Wahnsinn

Einwürfe von Stefan Kühl zu
aktuellen Themen des Managements

Kolumnen

Wieso ist es leicht Transparenz zu fordern, aber so schwer, sie umzusetzen? Wie wichtig sind Netzwerke in modernen Organisationen? Was steckt hinter dem Purpose-Hype? Zu diesen und über 100 weiteren Themen rundum das kluge Organisieren  von Unternehmen, Verwaltungen, Ministerien, Universitäten, Schulen, Armeen, Polizeien, Parteien und Vereinen erscheint hier jede Woche montags eine neue Kolumne von Stefan Kühl.

Die Kolumnen

Projektgruppe – Wenn die Variationsspezialisten die Routinespezialisten vergessen

Die Einrichtung von Projektgruppen wird mit verschiedenen Gründen als State of the Art des Projektmanagements bezeichnet: Die Steuerung und Koordination einer vollzeitig tätigen Gruppe ist einfacher. Das Projekt kann durch die voll verantwortliche Gruppe schneller abgewickelt werden und damit stehen der Organisation die Projektergebnisse schneller zur Verfügung. Durch die Kreativität der festen Gruppen lassen sich bessere Lösungen erwarten. Die Akzeptanz der Fachabteilungen kann dadurch gewährleistet werden, dass eigene Mitarbeiter in das Projekt entsendet werden. Externe Spezialisten können in die Projektgruppe eingebunden werden. Wo liegen die Probleme bei der Allzweckwaffe Projektgruppe?

Unternehmen, Verwaltungen und Krankenhäuser tendieren dazu, Spezialbereiche für „Variation“ auszubilden, deren Ideen, Anregungen und Konzepte dann von den „Routinespezialisten“ in der Praxis umgesetzt werden müssen. Abteilungen für Szenario-Management, für Organisationsentwicklung oder Forschung und Entwicklung sind dafür zuständig, Wissen zu produzieren; im operativen Bereich werden die Wissensbestände angewendet. Organisationsexperten in den Stäben konzentrieren sich auf die Entwicklung neuer Organisationsstrukturen und die in die Linie integrierten Abteilungen setzen diese Organisationsstrukturen dann um.

Die Einrichtung von Projektgruppen ist ein typisches Beispiel für die Ausdifferenzierung von „Variationsspezialis­ten“, deren Ergebnisse dann von den „Routinespezialisten“ umgesetzt werden müssen. Wenn aber die Veränderungsaufforderungen an Spezialeinheiten abge­geben werden, dann darf man sich nicht wundern, wenn sich alle anderen Abteilungen auf die Routineaufgaben zurückziehen und neue Entwicklungen als unwillkommene Störungen abweisen.

Im Alltag von Projekten lässt sich der Effekt an der Produktion von „Planungsruinen“ beobachten. Projektteams entwickeln IT-gestützte Wissensmanagement Programme, die von den „Usern“ nicht genutzt werden. Strategiegruppen erstellen neue Organigramme, welche die herrschenden Machtgeflechte nicht ausreichend berücksichtigt haben und deswegen nicht „lebendig“ werden. Entwicklungsabteilungen erstellen neue Produkte, von denen sich erst spät herausstellt, dass sie sich gar nicht fertigen lassen.

Die weitgehende Konsequenz: Schafft Projektgruppen ab. Alternativ zu den vorherrschenden, auf Projektgruppen setzenden Projektmanagementmodellen wird als Planungsinstanz nur noch ein Projektmanager eingesetzt, der direkt an die „Herren“ oder „Damen“ die Auftraggeber berichtet. Der Projektmanager hat in diesem Modell keine hierarchischen Weisungsbefugnisse gegenüber anderen Projektbeteiligten und zieht lediglich das obere und mittlere Management sowie die in Frage kommenden Fachleute zu kurzzeitigen Gesprächsrunden zusammen. Bei diesen Treffen wird nach Möglichkeit die Zusammensetzung der Teilnehmer variiert, sodass nie der gleiche Teilnehmerkreis zweimal zusammenkommt.

Auf dem ersten Blick liegt der Nutzen dieser Vorgehensweise darin, dass sich die Freistellung von Personal für ein Projekt erübrigt und das Alltagsgeschäft der meisten Projektbeteiligten durch die nur kurzen Besprechungszeiten kaum beeinträchtigt wird. Der Hauptnutzen liegt jedoch in einem anderen Aspekt. Der Verzicht auf Projektinstanzen sorgt dafür, dass sich das Projekt nicht zu stark von der Logik der „Routinespezialisten“ entfernt.

Wo liegen die Schwächen dieser Vorgehensweise? Die Durchsetzungskompetenzen des Projektmanagers sind schwach. Es gibt keine „Instanz“ in Form von Projektteams und Lenkungs­ausschüssen, auf die er sich beziehen kann. Die Konsequenz ist, dass die hierarchisch höherrangingen Sponsoren eines Projektes stark gefor­dert sind. Sie müssen für die Rückendeckung und die Ressourcen des Projektmanagers sorgen. Dies muss aber nicht unbedingt als Pathologie dieses Modells angesehen werden – im Gegenteil: Die Hierarchen können die Verantwortung nicht auf Projektteams abweisen, sondern stehen selbst im Zentrum des Geschehens.[1]


[1] Siehe ausführlich dazu Stefan Kühl: Projekte führen. Eine sehr kurze organisationstheoretisch informierte Handreichung. Wiesbaden 2015.

Vertrauen – Die Überschätzung eines Steuerungskonzeptes

Vertrauen ist in Mode: Je schärfer der Wind in der Wirtschaft weht, je stärker der Druck auf die Mitarbeiter in den Unternehmen und Verwaltungen wird, desto intensiver wird von Managern, Beratern und Sachbuchautoren Vertrauen als Essenz moderner Führung beschworen. Dabei geht es den Verkündern von Vertrauen als neue Zauberformel nicht darum, diese als eine neue Metamoral für Unternehmen zu proklamieren. Vielmehr wird versprochen, dass Vertrauen sich rechnet. Vertrauenskultur ist, so der Tenor, der Wettbewerbsvorteil für das 21. Jahrhundert.[1]

Angesichts dieser Vertrauens-Euphorie fragt man sich: Warum werden nicht alle Prozesse in der Gesellschaft (oder wenigstens in Unternehmen, Krankenhäusern, Verwaltungen, Universitäten oder Hochschulen) auf Vertrauen aufgebaut? Weswegen gibt es Hierarchien, in die Mitarbeiter eines Unternehmens oder einer Verwaltung mit ihrem ersten Arbeitstag hineinverpflichtet werden? Weswegen beschäftigen wir immer noch ganze Horden von Rechtsanwälten mit der Gestaltung von Verträgen, in dem jede Kleinigkeit „gerichtssicher“ ausformuliert wird, und hoffen nicht einzig darauf, dass unser Partner nicht schon die Vertrauensfrage stellt?

Dies hängt mit der zentralen Schwäche von Vertrauen zusammen – ihrer Fragilität. Vertrauen zwischen Personen baut sich langsam auf. Man kann mit einem freundlichen Blick, einer Geste, einem Entgegenkommen beginnen und wartet dann ab, wie der oder die andere reagiert.[2] Wenn es eine positive Reaktion gibt, kann sich langsam eine vertrauensvolle Beziehung aufbauen. Aber Vertrauen ist riskant. Häufig reicht ein kleines Anzeichen für einen Missbrauch des Vertrauens aus, damit eine mühsam aufgebaute Vertrauensbeziehung auseinanderbricht. Man kann ja nicht sicher sein, dass es bei dem einen Missbrauch bleibt.

Angesichts der Fragilität von Vertrauen zwischen Personen ist es ein evolutionärer Fortschritt, dass moderne Gesellschaften nicht mehr in der gleichen Form durch persönliche Beziehungen geprägt sind wie noch die Germanenstämme zu Caesars Zeiten oder die (fiktiven) amerikanischen Indianerstämmen zu Zeiten von Karl May. Vermutlich werden wir deswegen immer flexibler und mobiler werden, weil wir die Beziehungen zu unserer Umwelt nicht alleine auf die Stärke persönlicher Netzwerke aufbauen. Wir können von Oslo aus zum Krüger-Nationalpark nach Südafrika reisen und dort zwei Wochen Löwen beobachten, ohne alte persönliche Kontakte zu mobilisieren und ohne während des Aufenthalts mühsam Vertrauensbeziehungen zum Fremdenführer aufzubauen.

Aus dieser Perspektive wird deutlich, weswegen es ein Gewinn ist, dass die moderne Gesellschaft – und eben auch deren Organisationen – nicht auf persönlichem Vertrauen basiert. Es macht unser Leben einfacher, dass wir zum Verkäufer im Supermarkt nicht erst durch Komplimente oder Geschenke eine Vertrauensbeziehung aufbauen müssen, sondern davon ausgehen können, dass wir in der Regel für unseren einen Euro auch das gewünschte Kilo Bananen bekommen. Es erleichtert die Koordination im Unternehmen, dass der Chef nicht bei jeder Einzelfrage um das Vertrauen seiner Mitarbeiter werben muss, sondern aufgrund seiner hierarchischen Stellung erst einmal von einer pauschalen Folgebereitschaft ausgehen kann. Der Soziologe Niklas Luhmann beschreibt diesen Prozess, in dem man nicht konkreten Personen, sondern Geld oder Macht vertraut, als Systemvertrauen.[3] Mit dem romantischen Verständnis des Vertrauens zwischen Personen, wie es in der Managementliteratur gepflegt wird, hat dies wenig zu tun. Wie kommt es jetzt, dass Vertrauen wenigstens in der Managementliteratur so populär wird?

Das Propagieren von Vertrauen ist zunächst einmal Indiz dafür, dass andere Steuerungsmechanismen wie Hierarchie, Regeln und Märkte zunehmend problematisch werden. Wenn die Spitzen in Unternehmen und Verwaltungen so überlastet sind, dass Untergebene sich immer weniger auf Entscheidungen von oben verlassen können, wenn Regeln in Unternehmen so flexibel gehandhabt werden müssen, das deren Verletzungen zur Regel werden, wenn die Märkte so komplex werden, dass man nicht mehr alles in Verträgen festschreiben kann – dann giert man nach einem Steuerungsmechanismus, der diese Lücke füllen kann. Man erinnert sich an Vertrauen, das ja in Freundschaften und Liebesbeziehungen eine wichtige Rolle spielt, und versucht damit die „Lücken“ in den Unternehmen und Verwaltungen zu stopfen. Das mag sogar Erfolg versprechend sein, aber nur dann, wenn Vertrauen zwischen Personen nicht – wie zurzeit üblich – zum Maß aller Dinge hochstilisiert wird, sondern innerhalb seiner Grenzen verstanden wird.


[1] Die Ausarbeitungen basieren auf Überlegungen von mir aus Stefan Kühl: Die Grenzen des Vertrauens. In: Harvard Business Manager (2003), 4, S. 112–113. Für eine Anwendung auf Universitäten siehe ders.: Die Grenzen des Vertrauens. Wider eine neue Managementmode in Universitäten. In: Forschung & Lehre 14 (2007), 12, S. 718–720. Zum Verhältnis von Vertrauen zu Macht und Verständigung siehe auch S. Kühl: Laterales Führen (wie Anm. 182), 27ff.

[2] Siehe zum Aufbau von Vertrauen aus spieltheoretischer Perspektive die klassische Studie Robert Axelrod: The Evolution of Cooperation. New York 1984.

[3] Siehe dazu Niklas Luhmann: Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität, 3., durchgesehene Aufl. Stuttgart 1989.

Selbstorganisation – Von den hierarchischen Grenzen eines verklärten Konzeptes

Systemtheoretiker sind überrascht, wenn Praktiker das Konzept der Selbstorganisation für sich entdecken – schließlich ist es die grundlegende Strukturierungsform einer jeden Organisation. Organisationen stehen verschiedene Mechanismen der selbstorganisierten Entscheidungsfindung zur Verfügung: Neben Abstimmungen, Konsensfindung und Ausmauscheln gehört in vielen Organisationen auch die Strukturierung über Hierarchie dazu.

„Aber Nein!“, rufen die Praktiker angesichts dieser systemtheoretischen Verwendung des Begriffs, „so verstehen wir Selbstorganisation nicht“. Es ginge bei Selbstorganisation darum, dass Teams, Bereiche oder Abteilungen ohne hierarchische Eingriffe von außerhalb und ohne Ausbildung einer eigenen Hierarchie zu Entscheidungen kommen. Selbstorganisation umfasst also, anders als bei den Systemtheoretikern, gerade nicht hierarchische Steuerung, sondern wird von Praktikern vielmehr als das Gegenteil verstanden.

Zugestanden – jede und jeder kann Worte so bestimmen, wie sie oder er es möchte. Aber das Wuchern des Begriffs der Selbstorganisation verdeckt, dass Selbstorganisation in den meisten Fällen im Rahmen einer hierarchisch strukturierten Organisation zu finden ist. Sicherlich – es gibt „selbstorganisierte Organisationen“, die komplett auf Hierarchien verzichten. Man denke an ländliche Kommunen, politische Basisorganisationen oder selbstverwaltete Betriebe. In den meisten Fällen werden jedoch „Inseln der Selbstorganisation“ in Form von sich selbststeuernden Teams oder teilautonomen Gruppen in eine hierarchische Grundstruktur eingepasst. Diese Einbettung in eine hierarchische Grundstruktur führt zu Effekten, die in der Begeisterung für Selbstorganisation häufig übersehen wird.[1]

Das Spezifische einer hierarchischen Grundstruktur ist, dass jedes Thema bei Bedarf von unten auf eine höhere Ebene gezogen werden kann. Zwar mögen die sich in der Hierarchie weiter oben befindlichen Verantwortlichen nur in Ausnahmesituationen zu der Maßnahme greifen, weiter unten verortete Verantwortung an sich zu ziehen, doch behalten sie sich immer das formale Recht vor, jede weiter unten angesiedelte Entscheidungssituation und sonstige Problembereiche zur „Chefsache“ zu erklären. Selbst wenn Entscheidungen selbststeuernden Teams oder teilautonomen Gruppen überlassen werden, kann die nächste höhere hierarchische Ebene auf ihr einklagbares Weisungsrecht zurückgreifen und die Entscheidungsfindung wieder zurücknehmen.

Diese Eingriffe der Hierarchie geschehen nicht aus böser Absicht, sondern hängen mit der Verantwortungszurechnung in hierarchisch strukturierten Organisationen zusammen. Weil in Hierarchien jedes Thema nach oben gezogen werden kann, kann sich keine Chefin dadurch aus der Affäre ziehen, dass sie auf die Verantwortung der ihr untergebenen Einheiten verweist. Sie würde sich sofort den Vorwurf einhandeln, dass sie in einer Krisensituation nicht von ihren hierarchischen Eingriffsmöglichkeiten Gebrauch gemacht habe. Ein Verweis darauf, dass die Entscheidung nicht von ihr, sondern von ihren „selbstorganisierten Mitarbeitern“ getroffen wurde, würde nicht als Entschuldigung akzeptiert werden. Auch der Hinweis auf die Unkenntnis einer Situation wäre nicht legitim, solange die Entscheidung in ihrem Aufgabenbereich getroffen wurde.

Entgegen des Postulats in der Managementliteratur lässt sich mit guten Gründen behaupten, dass die Verantwortung der hierarchisch vorgesetzten Führungskraft durch die Einrichtung von selbststeuernden Einheiten nicht reduziert wird. Die Manager behalten letztendlich die Verantwortung für die Entscheidungen, die von selbstorganisierten Teams, autonomen Profitcentern oder gar rechtlich selbstständigen und räumlich entfernten Netzwerkunternehmungen getroffen werden. Daraus entstehen dann sowohl Rechte als auch die Notwendigkeit für Führungskräfte, in die sich selbststeuernden Einheiten einzugreifen.

Für die Manager entstehen in den selbststeuernden Einheiten deswegen permanent Fragen, ob sie es jetzt selbst machen können, ob die Vorgesetzten eingebunden werden sollen oder sie es gar selbst entscheiden müssen. Bei den Mitarbeitern in den selbststeuernden Einheiten entsteht der Eindruck, dass man selbst entscheiden darf, aber immer unter Vorbehalt. Die eigene Entscheidung scheint immer nur so lange in Ordnung zu sein, wie sie der Vorstellung der Führung nicht grundsätzlich widerspricht.

Die Lösung, die Praktiker für dieses Problem vorschlagen, ist simpel. Die selbststeuernden Teams und teilautonome Einheiten müssten sich mit der nächsthöheren hierarchischen Ebene verbindlich über Entscheidungskompetenzen verständigen. Das ist dann aber alles andere als originell. Seit es moderne Organisationen gibt, hat es immer schon eine solche Verteilung von Entscheidungskompetenzen über verschiedene hierarchische Ebene gegeben. Selbst in der klassischen bürokratischen Organisation wurden dabei – schon aus Entlastungsgründen – immer auch Kompetenzen von oben nach unten abgegeben. Diese Dezentralisierung von Entscheidungskompetenzen änderte aber nichts daran, dass die hierarchische Grundstruktur einer Organisation es höheren Ebenen ermöglicht, in die Selbstorganisationsprozesse weiter unten einzugreifen.


[1] Siehe zum Folgenden – basierend auf einer empirischen Studie – S. Kühl: Sisyphos im Management (wie Anm. 41), 38ff.

Gewinn – Gewinnorientierung als Koordinationsmechanismus der Organisationsspitze

Eine Unternehmerin, die von ihren Mitarbeitern gefragt wird, weshalb sie zwischen Gewinn und Verlust unterscheide, wird für diesen Fall den psychiatrischen Dienst ihrer Firma für zuständig halten.[1] Bei Gewinn und Verlust scheint es sich um eine zentrale Grundunterscheidung zu handeln, die für ein wirtschaftendes Unternehmen so konstitutiv ist, dass sie seitens des Managements keiner weiteren Begründung bedarf. Aber ist die Sache wirklich so einfach?

Wichtiger als der Gewinn ist für das Überleben von Unternehmen, dass genügend finanzielle Mittel verfügbar sind, dass die Firma – wie man es ausdrückt – liquide ist. Es gibt andere Strategien, als Gewinne zu machen, um liquide, also zahlungsfähig zu sein: sich einen permanenten Geldnachfluss durch den Kapitalmarkt zu organisieren, sich über staatliche Subventionen zu finanzieren oder Querfinanzierungen von verbundenen Unternehmen zu erreichen.

Es gibt in der Wirtschaftsgeschichte viele Beispiele dafür, dass Firmen auch dann Kapital erhalten, wenn sie keine Gewinne machen. Der Kruppkonzern konnte in der zweiten Hälfte des letzten Jahrhunderts über mehrere Jahrzehnte überleben, ohne aus den roten Zahlen herausgekommen zu sein. Die Bedeutung Krupps als Teil der Ruhrgebiet-Wirtschaft und die enge Verzahnung mit der Politik stellten sicher, dass bei Liquiditätsproblemen die deutsche oder die iranische Regierung einsprangen. Die vielen Start-ups, die zum Teil ihre Ideen nicht einmal zur Produktreife gebracht, geschweige denn je etwas verkauft haben, haben trotzdem einige Jahre am Markt überlebt, weil sie – dank Risikokapital – ausreichend liquide waren. In der Organisationsforschung wird hier von „permanent scheiternden Organisationen“ gesprochen.[2]

Nun kann das, so wird man argumentieren, auf Dauer nicht gut gehen, wenn sich nie Gewinne einstellen. Solchen Firmen wird man schließlich „den Geldhahn zudrehen“. Aber offensichtlich ist die Zeitspanne, die man Firmen einräumt, ohne oder ohne ausreichende Gewinne weiter zu existieren, sehr unterschiedlich. Unter dem Shareholder-Value-Druck stehende Unternehmen können ihre Kreditfähigkeit rasch einbüßen, wenn sie Verlustquellen nicht so schnell wie möglich zum Erliegen bringen. Auf der anderen Seite können Betriebe gewisser Branchen – man denke nur an Schiffsbau, Kohlebergbau oder Flugverkehr – dank direkter und indirekter Subventionen lange Jahre oder gar Jahrzehnte weiter machen, ohne Gewinne abzuwerfen.

Schaut man sich an, wie das Gewinnstreben innerhalb der Organisation thematisiert und gehandhabt wird, so fällt auf, dass das Management die Profitorientierung innerhalb des Unternehmens so darstellt, als ob sie vom Markt verlangt wird und nicht beeinflussbar ist: „Der Kapitalmarkt verlangt 10% Umsatzrendite. Wir sind darauf angewiesen, diese Rendite zu erzielen, sonst sind wir weg vom Fenster.“ Oder: „Der Wettbewerb ist härter geworden. Wir können es uns nicht erlauben, das Gewinnziel herabzusetzen, wenn wir wettbewerbsfähig bleiben wollen.“ Offensichtlich sind das die Realität stark verkürzende Begründungen.[3]

Die Besonderheit von Gewinn, sofern im Inneren der Organisation als Ziel eingesetzt, liegt in dessen Grenzenlosigkeit. Gewinn wird zwar in Zahlen ausgedrückt, doch gibt es keinen verbindlichen Richtwert, an dem er gemessen werden kann. Die Skala der Ausbeute ist nach oben und unten hin offen. Es gibt keinen Minimumwert, von dem man objektiv sagen könnte, dass so-und-so-viel erwirtschaftet werden muss; und ebenso gibt es keinen Maximalwert, der besagt, dass ab einem bestimmten Zeitpunkt ausreichend Profit erbeutet wurde: „Jetzt haben wir genug erwirtschaftet. Wir lehnen uns nun zurück, halten einfach die 100 000,- Euro Gewinn und arbeiten so weiter wie bisher.“

In letzter Konsequenz bedeutet diese Grenzenlosigkeit, dass das Management das Gewinnziel weiter anheben kann, wenn es merkt, dass es sich gut erreichen lässt. Genauso kann es das Gewinnziel herabsetzen, wenn es einsehen muss, dass es so nicht zu erreichen ist. Somit erweist sich der Profit als ein sehr flexibel handhabbares Managementinstrument. Die Erwartungen richten sich nach dem, was möglich ist, und werden auf dieser Grundlage dann flexibel angepasst.

Übrigens: Die Grenzenlosigkeit teilt der Gewinn mit Begriffen wie Wachstum oder Innovation. Man kann nie sagen, wann man das notwendige Minimum oder die höchstmögliche Quote erreicht hat: Immer ist ein Mehr an Wachstum, Innovation und Gewinn möglich. Deswegen braucht man als Management wohl auch nie auf die Forderung nach noch mehr Wachstum, Innovation oder Gewinn zu verzichten.

Leider – oder aus der Perspektive des an Betätigung interessierten Managements glücklicherweise – ist unklar, wie man einen höchstmöglichen Ertrag erzielen kann. Weder die Preise für Produkte, die Organisationsform zur Herstellung selbiger, noch die Mitarbeiterzusammensetzung werden durch das wirtschaftliche, politische oder sonst wie geartete Umfeld einer Organisation vorgeschrieben. Die Umwelt ist dem Unternehmen nicht in der Form von „Herrschaft“ vorgesetzt, deren Willen nur auszuführen ist. Sie ist vielmehr ein turbulentes, undurchsichtiges Feld, aus denen die Betriebe versuchen, irgendwie ihre Entscheidungsgrundlagen zu ziehen.[4]

Man kann eben nicht einfach errechnen, auf welche Weise man einen möglichst hohen Gewinn erzielen kann. Genauso wie rote Zahlen darüber schweigen, wie sie wieder schwarz werden, schweigen schwarze Zahlen darüber, wie sie noch schwärzer werden.[5] Wird die Einführung dieses Produktes uns zu mehr Einnahmen und letztlich zu mehr Gewinn verhelfen? Senken wir durch die Anschaffung dieser Maschine unsere Kosten und können dadurch einen höheren Profit erzielen? Gewinn liefert letztlich nur einen Bezugspunkt, an dem man die verschiedenen Lösungen, Vorschläge und Ideen vergleichen kann.[6] Welche Rolle spielt die Gewinnorientierung bei der Steuerung von Aufgaben?

Aufgabe des Managements im Inneren ist es, das Handeln der Bereiche und Personen so zu koordinieren, dass Organisationsleistungen entstehen, die sonst nicht zustande kämen. In der funktions- und arbeitsteiligen Form, in der die Organisation arbeitet, ist das keine leichte Aufgabe. Jeder Bereich, dem eine Teilaufgabe zugewiesen wurde, versucht eine auf die Erfüllung dieser Anforderungen gerichtete Rationalität einzunehmen. So sucht ein Produktionsbereich nach Verstetigung des Outputs mittels großer Fertigungslose oder gar durch Fließfertigung und will häufige Maschinenumstellungen und Variantenvielfalt vermeiden, während die Vertriebsbereiche Kundenwünsche aller Art erfüllen wollen. Das im direkten Kundengeschäft tätige Profitcenter möchte gerne seine Zulieferprodukte möglichst günstig einkaufen und setzt deswegen die zuarbeitenden Profitcenter unter Druck, die in Frage kommenden Waren möglichst kostengünstig anzubieten. Es entstehen durch die arbeitsteilige Untergliederung der Organisation in Abteilungen mit ihren jeweils eigenen lokalen Rationalitäten unvermeidliche Zielkonflikte. [7] Wie kann trotz dieser Zielkonflikte ein Unternehmen ausgerichtet werden?

Neben den von oben vorgegebenen Programmen und Regeln gehören zur Herstellung des Zusammenspiels auch normative Orientierungen dazu. Die Gewinnorientierung kann dafür sehr funktional sein. Schließlich muss es doch jedem einleuchten, dass es um des allgemeinen Gewinns willen notwendig ist, sich miteinander abzustimmen, effizient zu sein, Verschwendung zu vermeiden, Kosten zu senken und so fort. Gewinn liefert also einen Bezugspunkt, durch den die verschiedenen Rationalitäten in der Organisation aufeinander bezogen werden können.

In dieser Orientierung von unterschiedlichen Gruppen, Abteilungen und Einheiten des Unternehmens hat das Top-Management einen Vorsprung. Da es einen privilegierten Zugang zu Informationen über den Kapitalmarkt, über die Konkurrenzsituation und über die eigenen Kostenstruktur besitzt, kann es suggerieren, dass ein Gewinn in einer bestimmten Höhe und auf eine bestimmte Art hergestellt werden muss. Es beherrscht aufgrund der privilegierten Umweltkontakte eine wichtige Unsicherheitszone in der Organisation und verfügt so über Machtmöglichkeiten, die es erlauben, im Inneren etwas durchzusetzen.

Die Managementebene kann die Bereiche und Personen auf diese Weise disziplinieren, indem sie von allen verlangt, sich nach dem Gewinnziel auszurichten, da das der Markt verlange. Die eigenen Ziele und Interessen werden also mit dem Argument „Das müssen wir so tun, weil wir sonst keine Gewinnsteigerung erreichen und uns am Markt dann nicht mehr halten können“ durchgesetzt. Die Mitarbeiter können sich einem solchen Argument schlecht verwehren, schließlich müssen sie einsehen, dass das Unternehmen nur weiter bestehen und Beschäftigung bieten kann, wenn es im Gewinnbereich wirtschaftet.  


[1] Nach einer Formulierung von Niklas Luhmann, der aber eher die Berater als die Mitarbeiter dem psychiatrischen Dienst aussetzen will; siehe N. Luhmann: Kommunikationssperren in der Unternehmensberatung (wie Anm. 19), S. 222.

[2] Meyer, Marshall W.; Lynne  Zucker: Permanently Failing Organiziations. London: Sage, 1989.

[3] Siehe dazu auch Norman B. Macintosh: Accounting and the Truth of Earnings Reports: Philosophical Considerations. In: European Accounting Review 18 (2009), 1, S. 141–175.

[4] Luhmann, Niklas: Organisation und Entscheidung. Opladen: WDV, S. 27.

[5] Ortmann, Günther: Die Form der Produktion. Organisation und Rekursivität. Opladen: WDV, 1995, S. 181.

[6] Baecker, Dirk: Organisation als System. Frankfurt a.M.: Suhrkamp, S. 241.

[7] Vgl. Grundlegend zu diesem Ansatz Simon, Herbert A.: Administrative Behavior. A Study of Decision‑Making Processes in Adminstrative Organizations. 3. Aufl. New York, 1976.

Zeitdiagnosen – Zur Dramatisierung gesellschaftlicher Veränderungen

Ein allgemeiner Trend zum Neuem ist nicht zu übersehen. Im monatlichen Rhythmus werden neue technische Epochen, innovative Organisationsformen oder gleich neuartige Gesellschaftsformationen ausgerufen. Berater versuchen so ihre Angebote zu vermarkten, Wissenschaftler geben ihren Forschungen darüber eine massenmediale Bedeutung und Politiker versuchen, über Zeitdiagnosen ihre Themen zu setzen.

In der Vergangenheit wurden Zeitdiagnosen noch so formuliert, dass man genau wusste, worum es ging. Es war die Rede von der „Industriegesellschaft“, der „Dienstleistungsgesellschaft“ oder der „Erlebnisgesellschaft“; verkündet wurde der Trend zur „Matrix Organisation“, zum „Lean Management“ oder zum „Business Process Reengineering“. Aber schon an der Popularität der Vorsilbe „post“ in der Bezeichnung manches neuen Trends konnte man erkennen, dass sich Zeitdiagnostiker immer weniger trauen, ihre Analysen mit einem präzisen Begriff zu bezeichnen. Begriffe wie postindustrielle Gesellschaft, postfordistisches Unternehmen oder postbürokratische Organisationen suggerieren zwar eine grundlegende Veränderung, lassen aber offen, was sich genau verändert. Und es hat eine gewisse ungewollte Ironie, wenn inzwischen wissenschaftliche Konferenzen veranstaltet werden, auf denen danach gefragt wird, was nach der postbürokratischen Organisation oder nach dem postfordistischen Unternehmen komme.[1]

Die aktuelle Entwicklung – gewissermaßen der Meta-Trend in der Trendforschung – ist, Zeitdiagnosen nur noch in Versionsnummern auszurufen. Die Rede ist vom Web 2.0, in dem die Zusammenarbeit der Nutzer immer wichtiger werde, es wird die Förderbank 2.0 verkündet oder von Gründungsinitiativen 3.0 gesprochen. Ebenso wird die Industrie 4.0 ausgerufen, in der die zunehmende informationstechnische Vernetzung zwischen Unternehmen wichtiger werde, oder es wird unter dem Label Arbeit 4.0 bekannt gemacht, dass sich in der Arbeitswelt sehr viel ändere. Angesichts dieser in überraschend vielen Fällen von Ministerien finanzierten und propagierten Zeitdiagnosen wartet man förmlich darauf, dass eine Regierung – unterstützt durch Berater, Trendforscher und Wissenschaftler – demnächst verkündet, dass wir in einigen Monaten in der Gesellschaft 5.0 leben werden.

Aber letztlich ist es bei den in Versionen verpackten Zeitdiagnosen wie bei Softwareprogrammen, von denen man das Denken in Versionen übernommen hat: Genauso wie man sich manchmal fragt, was sich zwischen Windows 8.0 und Windows 10.0 oder Citavi 4.0 und Citavi 5.0 verändert hat, fragt man sich auch bei den Zeitdiagnosen, warum Veränderungen jetzt gleich das Ausrufen einer ganz neuen Version rechtfertigen und ob man sich nicht beispielsweise mit einer weniger ambitionierten Versionsbenennung wie Industrie 2.2 oder Arbeit 3.7.9 zufriedengeben könnte.

Zugegeben – man erkennt eine gewisse Mühe, die jeweils aktuell gehandelte Variante plausibel erscheinen zu lassen. Die Wirtschaft 1.0 habe in der Industriegesellschaft stattgefunden, in der sich durch die Einführung von Dampfmaschinen und mechanischen Produktionsanlagen die Arbeitsbedingungen verändert hätten, Wirtschaft 2.0 sei dann durch die Massenproduktion und den Wohlfahrtsstaat geprägt gewesen. Wirtschaft 3.0 – und hier erkennt man, wie verzweifelt man weitere Versionen suchte – sei durch die Konsolidierung des Sozialstaates und die spätere Zurücknahme des Sozialstaates geprägt gewesen. Wirtschaft 4.0 werde jetzt – so die dominierende Zeitdiagnose – vernetzter, digitaler und flexibler. Aber sind die beobachteten Trends wirklich so neu?

Ein Kernbestandteil der neuen Wirtschaft sei, so die Behauptung, die digitale Vernetzung zwischen Unternehmen. Es herrscht die Vorstellung von hochautomatisierten, vernetzten Produktions- und Logistikketten, die die Arbeit erheblich verändern. Sicherlich ist dies als Beobachtung nicht falsch, aber letztlich gibt es diese Zeitdiagnose unter dem Begriff der systemischen Rationalisierung seit mehreren Jahrzehnten. Es gehe, so die damalige Beobachtung, nicht mehr nur um die Leistungssteigerung an den Einzelarbeitsplätzen, sondern neue Informations- und Kommunikationstechnologien würden es ermöglichen, die Wertschöpfungsprozesse zwischen Betrieben zu automatisieren und zu rationalisieren.[2] Die Speicherleistungen  mögen größer, die Sensoren präziser, die Übertragungsgeschwindigkeiten höher werden, eine grundlegende Veränderung der Rationalisierungslogik hat jedoch nicht stattgefunden.

Ein weiterer Effekt der Digitalisierung sei, so die Beobachtung, eine Spaltung des Arbeitsmarkts. Weil aufgrund des „digitalen Wandels“ zunehmend auch „digital literacy“ gefragt sei, komme es, so jedenfalls die aktuelle Zeitdiagnose, zu einer „Dualisierung des Arbeitsmarktes“. Am unteren Rand habe sich ein Bereich von unsicheren und prekären Beschäftigungsverhältnissen ausgebildet. Es würde sich zwar weiterhin ein Großteil der Arbeitnehmer in Normalarbeitsverhältnissen befinden, gleichzeitig seien aber immer mehr Personen in atypischen, häufig prekären Arbeitsverhältnissen beschäftigt. Eine solche Dualisierung des Arbeitsmarktes mag auffallen, wenn man als Vergleich die sehr kurzen Phasen der Vollbeschäftigung in der alten Bundesrepublik heranzieht. Über eine längere Zeitachse beobachtet ist die Dualisierung des Arbeitsmarktes allerdings der kapitalistische Normalfall. Die am Existenzminimum lebenden „Solo-Selbstständigen“ und „Klick-Worker“ hießen früher bloß „Tagelöhner“, statt von einem „Prekariat“ wurde von einem „Lumpenproletariat“ gesprochen und als Beispiele dienen heute selbstständige Paketausfahrer, Webdesigner, Schauspieler, Taxifahrer sowie Tankstellenpächter und nicht mehr wie noch bei Karl Marx Lastenträger, Literaten, Orgeldreher, Lumpensammler, Scherenschleifer und Kesselflicker.[3]

Jetzt kann man sicherlich nicht so tun, als würde sich nichts verändern. Der Kapitalismus – ein Wort, das in den meisten Zeitdiagnosen zur Digitalisierung sorgsam vermieden wird – befindet sich durch die Dynamik der Produkt-, Kapital- und Arbeitsmärkte in einem permanenten Veränderungsprozess. Zweifelhaft ist jedoch, ob es die konstatierten Epochenbrüche gibt, die es erlauben würden, von verschiedenen, grundlegend veränderten Versionen von Industrien, Dienstleistungen oder Arbeit zu sprechen.

Angesichts der Aneinanderreihung von Schlagwörtern wie „Solo-Selbständige“, „Mobiles Arbeiten“, „kleine Vollzeit“, „Rushhour des Lebens“, „Dienstleistung on demand“ oder  „Crowdworking“ wird gern übersehen, dass die Grundproblematik seit der Ausbildung des Kapitalismus die gleiche geblieben ist: Wenn ein Unternehmen Personal auf einem Arbeitsmarkt einkauft, garantiert das noch lange nicht, dass diese Arbeitskraft dann auch im Sinne des Unternehmens tätig wird. Das Unternehmen sucht deswegen permanent nach möglichst weitgehenden Zugriffen auf diese Arbeitskraft.[4]

Auch dies ist schon Karl Marx aufgefallen. In der marxistischen Terminologie heißt es, dass der Einkauf von Arbeitskraft durch den Kapitalisten nicht gleichbedeutend mit der realen Nutzung der Arbeitskraft durch das Kapital sei und die Fantasie des Kapitalisten sich darauf richte, wie er dieses „Transformationsproblem“ lösen kann.[5] In der Systemtheorie wird das Transformationsproblem mit der grundlegend zu unterscheidenden Differenz zwischen Mitgliedschafts- und Leistungsmotivation von Organisationsmitgliedern bezeichnet.[6] In einer für Manager akzeptableren Formulierung wird das genau gleiche Problem – in der Regel ohne Referenz auf die marxistischen und systemtheoretischen Entdecker des Phänomens – durch die Prinzipal-Agent-Theorie beschrieben. Die Agenten, in diesem Fall die Arbeiter, werden eingekauft, um bestimmte Leistungen für einen Prinzipal, den Unternehmer, zu erbringen, und tendieren aus eigener Nutzenorientierung dazu, die Entlohnung durch den Prinzipal mit einer möglichst geringen Leistungserbringung zu erreichen. Der Prinzipal sucht deswegen mit der Unterstützung von Beratern und Wissenschaftlern nach Lösungen, um die Leistungszurückhaltung zu verhindern. [7]

Allem Schauseitenmanagement von gehypten Vorzeigeunternehmen zum Trotz hat sich an diesem Transformationsproblem grundlegend nichts verändert, lediglich die Akzentuierungen sind andere geworden. Auf der einen Seite versucht das Management, möglichst viel der pauschal eingekauften Arbeitskraft des Mitarbeiters zu nutzen, ohne aber in ein zu einseitiges Abhängigkeitsverhältnis zu ihm zu geraten. Auf der anderen Seite stehen die Mitarbeiter mit einem Interesse, ihre Arbeitskraft nicht völlig zu verausgaben, gleichzeitig aber für die Firma möglichst unverzichtbar zu sein, um so den eigenen Wert nach oben zu treiben. Der zugrunde liegende Prozess nennt sich (Arbeits-)Markt und hat sich bereits vor über zweihundert Jahren herausgebildet.

Dramatisiert haben sich lediglich die Darstellungsformen in den Unternehmen. Kontrolle wird seltener über allgegenwärtige Manager hergestellt, sondern zum Universalherrn wird auch unternehmensintern der Markt erhoben, dem nichts entgeht, der Erfolg vorurteilslos belohnt und Fehlverhalten unnachsichtig bestraft. Für Mitarbeiter entsteht der Eindruck, dass Misserfolge nicht vom Vorgesetzten, sondern durch die vermeintlich „objektiven Folgen“ des eigenen Tuns bestraft werden. Entlassungen und Schließungen von Unternehmensteilen werden nicht mehr als Willkür eines gewinnorientierten Unternehmers präsentiert, sondern als logische Konsequenz der Marktprozesse.


[1] Zu Zeitdiagnosen siehe aufschlussreich

[2] Siehe nur beispielhaft Dieter Sauer, Volker Döhl: Arbeit an der Kette. Systemische Rationalisierung unternehmensübergreifender Produktion. In: Soziale Welt 45 (1994), S. 197–215.

[3] Karl Marx: Der achtzehnte Brumaire des Louis Bonaparte. In: Karl Marx, Friedrich Engels (Hrsg.): Marx-Engels-Werke. Band 8. Berlin 1960, S. 111–207, 160f.

[4] Siehe dazu Stefan Kühl: Arbeit – Marxistische und systemtheoretische Zugänge. Wiesbaden 2018, 67ff.

[5] Karl Marx: Das Kapital. Erstes Buch. In: ders. (Hrsg.): Marx-Engels-Werke. Band 23. Berlin 1962, S. 11–955, 532ff.

[6] N. Luhmann: Funktionen und Folgen formaler Organisation (wie Anm. 5), 104ff.

[7] Stephen A. Ross: The Economic Theory of Agency. The Principal´s Problem. In: American Economic Review 63 (1973), S. 134–139, 134ff.

Gewalt – Über den überraschend geringen Grad von körperlichen Auseinandersetzungen in Organisationen

Es ist auffällig, wie wenig körperliche Gewalt in Organisationen praktiziert wird. Es kommt in den meisten Unternehmen sehr selten vor, dass Kollegen eine Auseinandersetzung über die beste Marktstrategie für ein Unternehmen durch einen Faustkampf austragen. Es ist in Verwaltungen die seltene Ausnahme, dass eine Vorgesetzte ihre Mitarbeiter durch die Androhung von Hieben dazu bringt, ihre Anweisungen auszuführen. Und auch in Universitäten ist es inzwischen eher selten, dass Professoren ihre Studierende durch Schläge mit Rohrstöcken zu besseren Leistungen ermutigen.

Wenn es in Organisationen zur Gewalt kommt, stellt das in den meisten Fällen eine Krise dar. Körperliche Auseinandersetzungen über die richtige Marktstrategie zwischen Mitarbeitern führen in der Regel in der Organisation nicht nur zu hoher Aufmerksamkeit, sondern auch zu einem konsequenten Unterbinden durch Vorgesetzte. Eine regelmäßig prügelnde Vorgesetzte kann davon ausgehen, über kurz oder lang aus der Organisation entfernt zu werden. Professoren, die Gewalt als Mittel der Leistungssteigerung einsetzen, haben vermutlich gute Chancen, Erwähnung in den Massenmedien zu finden und sich nach anderen Tätigkeiten umzuschauen.

Für diesen geringen Grad der Gewaltanwendung in Organisationen gibt es einen Grund: die Verknüpfung der Mitgliedschaft der Beschäftigten an Bedingungen der Folgebereitschaft sowie die damit einhergehende Drohung der Trennung, wenn diese Erwartungen nicht erfüllt werden. Solange eine Person Mitglied einer Organisation bleiben will, muss sie sich im „Rahmen der Regelordnung“ verhalten, die sie „mit seinem Beitritt akzeptiert hat“.[1] Deswegen müssen Organisationen nicht „mit Pistolen regiert“ werden, sondern mit „angedrohten Entlassungen“.[2]

Man sieht die Bedeutung dieses Merkmals bei der Betrachtung des Unterschieds zum System der Familie. Familien können nur sehr begrenzt über ihre Mitgliedschaft disponieren. Sie können Kinder nicht aus der Familie ausschließen, wenn diese sich nicht entsprechend der Ansprüche der Eltern verhalten.[3] Diese Schwierigkeit erklärt den proportional höheren Anteil an Gewaltanwendung in Familien im Vergleich zu Organisationen. Weil die Drohung der Kündigung in Familien ein sehr stumpfes Schwert zur Durchsetzung von Erwartungen ist, scheint Eltern manchmal nur eine körperliche Form der Verwirklichung ihrer Erwartungen in Form von Festhalten, Wegschieben oder – in Ausnahmesituationen – auch Schlagen übrig zu bleiben.

Einen Sonderfall stellen solche Organisationen in der modernen Gesellschaft dar, die Menschen zur Mitgliedschaft zwingen: Armeen, die sowohl ihren Wehrpflichtigen als auch ihren Berufssoldaten das Ausscheiden unter Androhung von Gefängnis oder gar Exekution verbieten; Milizen, die ihren Mitgliedern – von gelegentlichen Übungen abgesehen – zwar ein „normales“ Leben erlauben, diese dann aber im Notfall zwangsweise einziehen; Polizeieinheiten im Kriegseinsatz, in denen Polizisten die Möglichkeit genommen wird, ihren Job zu kündigen; Grenztruppen, die ihren Wachsoldaten nicht die Möglichkeit geben, diese Organisation zu verlassen; Unternehmen, die ihre Produktionsziele durch die Unterstützung von Zwangsarbeitern erreichen; Einrichtungen der sozialen Hilfe, die ihre Leistungen mit einem hohen Anteil von Zivildienstleistenden erbringen, die dort ihren Zwangsdienst ableisten; oder kriminelle Organisationen wie die Mafia, die ihre Mitglieder an dem Austritt aus der Organisation hindern.

In Zwangsorganisationen spielt Gewalt nach innen eine Rolle, die wir aus Organisationen normalerweise nicht mehr kennen. Es werden Pistolen bei auf Zwangsmitgliedschaft basierenden Armeen, Polizeien oder der Mafia nicht nur parat gehalten, weil diese Organisationen damit notfalls ihre Ziele gegenüber Nichtmitgliedern durchsetzen, sondern auch um ihre Mitglieder im Zweifelsfall am Austritt zu hindern. Dies gilt nicht nur für Organisationen wie der Armee, der Polizei oder der Mafia, die als Gewaltspezialisten nach außen auftreten, sondern auch für Unternehmen mit Zwangsarbeitern, Einrichtungen der sozialen Hilfe mit ihren Zivildienstleistenden oder Bautrupps, die auf Zwangsverpflichtete zurückgreifen, den Einsatz der Pistole dann aber häufig eher Gewaltspezialisten aus anderen Organisationen überlassen.

Die abnehmende Bedeutung der Zwangsmitgliedschaft in Organisationen hängt sicherlich damit zusammen, dass Gewalt als letztes Mittel zur Durchsetzung des Eintritts und des Verbleibs in Organisationen gesellschaftlich nahezu gänzlich an Legitimität verloren hat. Noch wichtiger ist aber, dass Organisationen mit der impliziten oder auch expliziten Androhung von Entlassung ein deutlich effizienteres Mittel zur Herstellung von Konformität zur Verfügung steht als die Anwendung von Gewalt.[4]


[1] Renate Mayntz: Soziologie der Organisation. Reinbek 1963, S. 106.

[2] Niklas Luhmann: Das Erziehungssystem der Gesellschaft. Frankfurt a.M. 2002, S. 56.

[3] Siehe dazu Hartmann Tyrell: Familienalltag und Familienumwelt: Überlegungen aus systemtheoretischer Perspektive. In: Zeitschrift für Sozialisationsforschung und Erziehungssoziologie 2 (1982), S. 167–188, 167ff.

[4] Siehe ausführlich dazu Stefan Kühl: Zwangsorganisationen. In: Maja Apelt, Veronika Tacke (Hrsg.): Handbuch Organisationstypen. Wiesbaden 2012, S. 345–358. Für eine empirische Anwendung des Konzepts siehe ders.: Ganz normale Organisationen. Zur Soziologie des Holocaust. Berlin 2014, 120ff.

Zwangsmitgliedschaft – Weswegen Verweise und Bußgelder Protestierenden nützen

Bei den Klimaprotesten von Schülern verkündeten einige Schulleitungen schnell, dass sie zukünftig Bußgelder gegen Eltern durchsetzen werden, die ihre Kinder nicht an der Teilnahme an den Klimademonstrationen hindern. Bei aller Sympathie für die Sache ‒ so der Tenor ‒ könnte man nicht dulden, dass die Schulpflicht an Freitagvormittagen faktisch außer Kraft gesetzt werde. Wenn Schüler protestieren wollten, sollten sie dies bitte in ihrer unterrichtsfreien Zeit machen.

Dabei übersahen sie, dass der Erfolg der Klimaproteste damit zusammenhing, dass diese als Streik während der Unterrichtszeit stattfanden. Erst dadurch, dass Schüler sich punktuell der Schulpflicht verweigerten, erhielten sie überhaupt öffentliche Aufmerksamkeit. Sie verfügten damit über Protestmöglichkeiten, die den Studierenden, die diese Demonstrationen unterstützten, nicht in gleicher Weise zur Verfügung standen – weil sich letztlich niemand dafür interessiert, ob Studierende an einem Freitag an einer Vorlesung beziehungsweise Übung teilnehmen oder nicht.

Die Schüler nutzten dabei für ihre Proteste geschickt aus, dass sie zu den wenigen Gruppen gehören, die noch mit Zwang zur Mitgliedschaft in einer Organisation verpflichtet werden. Dass die Schulpflicht ursprünglich nicht wegen lernresistenten Schüler, sondern wegen Eltern eingeführt wurde, die ihre Kinder lieber zum Arbeiten als zum Unterricht schicken wollten, ändert nichts daran, dass die Schüler durch die Missachtung der Schulpflicht einen außergewöhnlich effektiven Hebel haben.

Nachdem die Proteste anfangs weitgehend ignoriert worden sind, wurden die Verantwortlichen zunehmend unruhig. Dabei war klar, dass es bei den Bestrafungen nie um den konkret verpassten Unterricht ging. Es gehört ein erhebliches Maß an Fantasie dazu, zu glauben, dass zwei verpasste Stunden Mathematik, Biologie oder Geografie an einem Freitag verhindern, dass aus einer Schülerin eine zukünftige Ingenieurin für alternative Antriebstechniken oder eine auf Klimawandel spezialisierte Meteorologin wird. Das Gegenteil trifft zu.

Bekanntermaßen hat ein Engagement in Protestbewegungen eine motivierende Wirkung auf die Berufswahl, die selbst von sehr guten Lehrern nur schwer zu erzielen ist. Man braucht sich bloß die Juristin anzuschauen, deren Berufswahl auf Erfahrungen mit Polizeigewalt im Zuge von Friedensdemonstrationen zurückgeht, den in der Umweltbewegung sozialisierten Ingenieur, der alternative Techniken der Färbung von Kleidung entwickelt, oder die Schriftstellerin und Politikerin, die darin Möglichkeiten sieht, ihre in nationalistischen Bewegungen gesammelten Erfahrungen zu einem Beruf zu machen.

Der Grund für die Sensibilität, mit der einige Schulleiter, aber auch Politiker auf die Klimastreiks reagierten, war ein anderer. Die offene Verweigerung der Schulpflicht stellte in der Wahrnehmung die formale Ordnung der Schule insgesamt in Frage. Organisationen reagieren generell sensibel, wenn Mitglieder sich offen weigern, auch nur eine Anweisung, eine Regel oder eine Aufforderung auszuführen. Wer auch nur „einer Vorschrift aus Prinzip die Anerkennung verweigert“, so schon der Soziologe Niklas Luhmann, rebelliert nicht nur gegen diese eine Vorschrift, sondern „gegen alle formalen Erwartungen“ der Organisation.[1]

Man kann diese Sensibilität gegen einzelne Verweigerungen wie durch ein Brennglas bei Armeen mit Wehrpflicht beobachten. Die explizite Aussage eines Soldaten, er sei nicht bereit, den Hof zu putzen oder sich am Exerzieren zu beteiligen, löst nicht deswegen erhebliche organisatorische Unruhen aus, weil ein sauberer Kasernenhof eine Grundbedingung für eine erfolgreiche Kriegsführung ist, sondern weil die Ablehnung auch nur dieser einen kleinen Anweisung als Rebellion gegen alle formalisierten Erwartungen der Organisation interpretiert werden muss und dadurch die Fähigkeit der Armee zur Kriegsführung abnimmt.[2]

Deswegen bilden gerade Organisationen, die ihren Mitgliedern nicht die Wahl lassen, in der Organisation zu verbleiben oder diese zu verlassen, ein hohes Maß an Intelligenz aus, um mit Regelverstößen umzugehen. Man zieht die Verantwortung für die Regelverstöße nicht sofort in der Zentrale zusammen, sondern überlässt die Handhabung der Verstöße den unmittelbaren Vorgesetzten. Diese können dann selbst überlegen, ob sie die Verstöße überhaupt zur Kenntnis nehmen, vorgeschobene Entschuldigungen akzeptieren oder offiziell Bestrafungen aussprechen, die aber faktisch weitgehend wirkungslos bleiben.

Insofern ist es vermutlich eine kluge Politik der Bildungsministerien gewesen, den Schulen keine rigide Vorgehensweise gegen die Streikenden vorzuschreiben, sondern es den einzelnen Bildungseinrichtungen selbst zu überlassen, wie sie mit den fehlenden Schülern umgehen. Dabei wählten die meisten Schulen aus guten Gründen eine Vorgehensweise, die auf den Einsatz des zur Verfügung stehenden Bestrafungsapparats verzichtet, gleichzeitig aber die auf der Schulpflicht basierende formale Ordnung aufrechterhält. Das Fehlen von Schülern wurde zwar nicht offiziell erlaubt, aber stillschweigend geduldet: So konnten die Fehlstunden durch die Beteiligung an Diskussionen über Klimaschutz kompensiert werden, oder es wurden Verwarnungen ausgesprochen und dabei mitkommuniziert, dass aus diesen keine Konsequenzen folgen werden.

Wir wissen, dass Protestbewegungen – man denke nur an die Friedensbewegung, die Frauenbewegungen oder auch nationalistische Bewegungen – nach einer gewissen Zeit in sich zusammenfallen. Sicherlich, das Ergebnis von Protestbewegungen ist die Bildung professionell organisierter Lobbyorganisationen und die Entstehung von Parteien, die das Thema in die Parlamente treiben. Aber die Protestbewegung selbst und das scheint fast ein ehernes Gesetz von Bewegungen zu sein – verliert zunehmend an Bedeutung und ist irgendwann kaum noch in der Lage, eine nennenswerte Anzahl an Personen für ihre Proteste zu mobilisieren.

Eine rigide Vorgehensweise gegen Protestbewegungen wirkt für diese jedoch wie eine permanente Beatmungsmaßnahme. Insofern trugen Politiker, die während der Klimastreiks harte Bestrafungen der Protestierenden forderten, sowie Schulleiter, die alle rechtlich möglichen Wege, die Schlupflicht durchzusetzen, ausnutzten, entscheidend zu einem vergleichsweise langanhaltenden Erfolg dieser Protestbewegung bei. Den größten Gefallen, den Politiker und Schulleiter den Schülern hätten tun können, lag also gerade in der Eskalation der Bestrafungsmaßnahmen. Insofern hätten die protestierenden Schüler nur hoffen können, dass etliche von ihnen aufgrund ihrer Proteste aus der Schule entfernt und ihre Eltern zu Bußgeldern verurteilt würden, oder aber die Politiker über Beugehaft gegen Schüler respektive Eltern zur Durchsetzung der Schulpflicht aufgerufen hätten. Weil aber nur einzelne Politiker und Schulleiter den protestierenden Schülern diesen Gefallen taten, schlafften die Proteste, wie zu erwarten, schnell wieder ab.


[1] N. Luhmann: Funktionen und Folgen formaler Organisation (wie Anm. 5), S. 63.

[2] S. Kühl: Ganz normale Organisationen (wie Anm. 116), 120ff.

Künstliche Intelligenz – Cyber-Utopisten versus Techno-Realisten

Kaum jemand traut sich noch die Geschichte vom smarten Kühlschrank zu erzählen, der auf einer Lebensmittelplattform automatisch die fehlende Milch nachbestellt. Zwar ist es technisch kein Problem, einen Kühlschrank mit Sensoren auszustatten, die entsprechend gekennzeichnete Lebensmittelverpackungen erkennen können. Aber der alltägliche sehr menschliche Blick in den Kühlschrank, ob noch genug Milch da ist, zeigt, dass die inzwischen über zehn Jahre alte Geschichte vom nachbestellenden Kühlschrank lediglich eine der vielen nicht erfüllten Technik-Fantastereien zu bleiben scheint.

Technikhistorische Forschungen haben gezeigt, dass die meisten technischen Voraussagen und Visionen Hirngespinste geblieben sind. Die meisten Voraussagen werden im Nachhinein so zurechtinterpretiert, dass man den Eindruck bekommt, dass hier Trendforscher über hellseherische Fähigkeiten verfügt haben, aber ein genauerer Blick zeigt, dass richtige Voraussagen technischer Entwicklungen eine äußerst seltene Ausnahme sind. Die Geschichte der Trendforschung, der Technikfolgenabschätzung und der Zukunftsprognostik ist eine Geschichte von Irrungen und Wirrungen.[1]

Dies führt bei Futurologen, Visionären und Prognostikern jedoch nicht etwa zu größerer Bescheidenheit – im Gegenteil: Man kann gerade in den Diskussionen über künstliche Intelligenz, Digitalisierung und Robotik einen neuen Erregungszustand erkennen. Die Rede ist von virtuellen Shopping-Assistenten, die die Bedürfnisse besser kennen als ihre Benutzer, von Teams aus Robotern, die in absehbarer Zeit Fußball-Weltmeister werden, und von Kommunikationen, die zwischen Internet-Bots abgewickelt werden, ohne dass die Menschen das überhaupt noch mitbekämen.

Durch die Nutzung von Big Data, intelligenten Algorithmen und lernenden Maschinen würde sich auch die Arbeitsweise in Unternehmen, Verwaltungen, Krankenhäusern und Universitäten grundlegend verändern. Es wird vorausgesagt, dass die Digitalisierung zu grundlegend neuen Kooperationsformen führen wird, in denen die Mitarbeiter nicht mehr in den Silos ihrer Bereiche oder Abteilungen isoliert werden. Entscheidungen würden nicht mehr vorrangig von Managern getroffen werden, sondern „Robo-Bosse“ würden auf der Basis von Algorithmen Geschäftsstrategien entwickeln. Organisationen, so wie wir sie kennen, würden sich auflösen, weil man über die technischen Möglichkeiten verfügt, mit geringeren Koordinationskosten ein Produkt oder eine Dienstleistung über Netzwerke von Ein-Personen-Unternehmern erbringen zu lassen.[2]

Zurzeit findet ein Wettbewerb um die Verkündung des dramatischsten Bruches statt. Man gilt in der Szene als Tiefstapler, wenn man aktuelle Entwicklungen im Bereich der auf Verarbeitung großer Datenmengen gestützten künstlichen Intelligenz lediglich mit der Bedeutung der Erfindung der ersten Großrechner Mitte des 20. Jahrhunderts vergleicht. Zumeist wird die Bedeutung der technischen Veränderungen im Bereich der Digitalisierung gleich mit der Erfindung der Dampfkraft, des elektrischen Stroms oder des Buchdrucks gleichgesetzt. Oder die Fortschritte in der künstlichen Intelligenz werden gar mit der kambrischen Artenexplosion vor 550 Millionen Jahren verglichen.

Sicherlich – gerade im Bereich der künstlichen Intelligenz und der Robotik konnten auch die Visionäre nicht übersehen, dass der große Teil der Voraussagen bisher Science Fiction geblieben ist. Aber das hat lediglich zu einer Anpassung des Erzählstrangs geführt. Es wird zugestanden, dass sich viele Visionen zur künstlichen Intelligenz über Jahrzehnte nicht erfüllt haben, aber nur um zu ergänzen, dass diese aufgrund der enorm gestiegenen Rechnerkapazitäten jetzt aber doch Realität werden. In Kürze werde – so die neuartige Erzählsform – die Forschung Nüsse knacken, an denen sie sich über Jahrzehnte die Zähne ausgebissen hat.

Das Problem bei den Prognosen ist häufig nicht, dass die Dinge technisch nicht machbar sind. Sicherlich – es gibt in der Szene den Witz, dass funktionierende Techniken „richtige Namen“ bekommen und mit „künstlicher Intelligenz“ nur die Dinge bezeichnet werden, die nicht funktionieren. Aber in vielen Fällen besteht das Problem nicht in der technischen Machbarkeit, sondern in der erfolgreichen Umsetzung.

Technisch ließen sich Währungssysteme mithilfe der Blockchain-Technologie grundlegend verändern, aber die Energiekosten würden einzelne Transaktionen extrem teuer machen, der Aufbau von Vertrauen in solche Währungssysteme würde sehr viel Zeit benötigen und die Möglichkeit staatlicher Eingriffe bliebe ein zentrales Problem. Auch die Vision des mit einem Lieferservice kommunizierenden Kühlschranks scheitert nicht an technischen Problemen, sondern daran, dass angesichts der Komplexität der Kosten-Nutzen-Analyse die meisten Nutzer zu herkömmlichen Kühlschränken zurückkehren werden.

Das Problem bei der Realisierung von technischen Visionen ist, dass die Pfadabhängigkeiten so ausgeprägt sind, dass sich neue – manchmal auch überlegene – Techniken gar nicht durchsetzen können. Es spricht vieles dafür, dass eine intelligente dezentralisierte Energiegewinnung auf der Ebene von Haushalten der existierenden zentralisierten Energiegewinnung überlegen wäre, aber aufgrund der Investitionen in ein zentralistisches Netz ist das Beharrungsvermögen erheblich.    

Es gibt gute Gründe, weswegen der Fantasie im Feld der künstlichen Intelligenz kaum Grenzen gesetzt sind. Futurologen und Trendforscher verdienen ihr Geld damit, dass sie möglichst detaillierte Bilder möglicher Zukünfte malen. Berater können über möglichst drastische Schilderungen etwaiger Zukünfte die Bereitschaft ihrer verunsicherten Kundschaft erhöhen, ihre Dienste in Anspruch zu nehmen. Auch für Zeitungen mit ihrer ständigen Suche nach Neuigkeiten sind die bunten Visionen von Unternehmen häufig berichtenswerter als die faktischen Veränderungen.

Angesichts der nachvollziehbaren Erregung von Visionären, Zukunftsprognostikern und Trendforschern brauchen wir dringend ein Realismusgebot in der Diskussion über künstliche Intelligenz und Robotik. Statt intensiv darüber zu spekulieren, was technisch möglich sein wird, was an neuen Produkten entstehen könnte oder an neuartigen organisatorischen Möglichkeiten angedacht ist, sollten wir uns darauf konzentrieren, zu analysieren, wie die existierenden neuen Techniken wirken.

Konkret würde ein solches Realismusgebot bedeuten, dass die PowerPoint-Präsentationen von Managern konsequent um ihren Science-Fiction-Anteil bereinigt werden und stattdessen konkret bei ihnen eingesetzte neue Techniken beschreiben. Berater dürften sich in ihren Befragungen nicht mehr darauf versteifen, Manager nach Trends zu befragen, die sich dann in Publikationen als Bedrohungsszenario aufbauen lassen, sondern müssten sich auf die Details der konkreten technischen Veränderungen konzentrieren. Journalisten müssten, wenn sie über „mögliche“ technische Entwicklungen schreiben wollen, sichtbar in das Genre der Science-Fiction-Literatur wechseln.

Es wäre naiv, davon auszugehen, dass es keine grundlegenden technischen Veränderungen gibt. In einigen Branchen verändert die Digitalisierung die Geschäftsmodelle erheblich. Die technische Vernetzung von Wertschöpfungsprozessen auch über Organisationsgrenzen hinweg beschleunigt sich. Die Automatisierungstechnik sowohl im Produktions- als auch im Dienstleistungsbereich macht erhebliche Fortschritte. Die Geschichte des Kapitalismus ist immer auch eine Geschichte von durch Innovationen getriebenen Marktveränderungen. Aber gerade deswegen ist der Realitätsbezug in der Beschreibung neuer Technologien so wichtig.


[1] Siehe dazu ausführlich für die Entwicklung in Deutschland seit 1945 Joachim Radkau: Geschichte der Zukunft. Prognosen, Visionen, Irrungen in Deutschland von 1945 bis heute. München 2017.

[2] Siehe für solche Visionen V. Mayer-Schönberger, T. Ramge: Reinventing Capitalism in the Age of Big Data (wie Anm. 56).

Exit – Wie Risikokapital die Regeln der Wirtschaft verändert

Die „klassische Strategie“ der Unternehmensgründung sieht vor, ein Unternehmen durch Aufnahme eines Kredites oder durch die Investition von Erspartem ins Leben zu rufen, es nach Anfangsverlusten möglichst schnell in die profitable Zone zu führen und das Geschäft dann in andere regionale Märkte oder gar Marktsegmente expandieren zu lassen. Der „klassische“ Familienbetrieb entsteht im Einzelhandel, im Handwerk oder in sonstigen Dienstleistungen des täglichen Lebens, breitet sich, wenn überhaupt, nur sehr langsam aus und gibt sich mit einem verhältnismäßig geringen Gewinnpotenzial zufrieden. Aber auch Dienstleistungsunternehmen und Firmen des verarbeitenden Gewerbes, die häufig von Gründern mit Führungserfahrung ins Leben gerufen werden und sich auf eine starke Wettbewerbsposition in einem Nischenmarkt konzentrieren, wachsen weitgehend durch die Reinvestition ihrer Gewinne aus dem laufenden Geschäft.[1]

Mit der Entstehung und kontinuierlichen Ausweitung eines Marktes für Risikokapital seit dem Zweiten Weltkrieg bildet sich immer stärker ein Gründungspfad aus, der auf Wachstumsmärkte und auf die schnelle Erlangung von Wettbewerbsvorteilen ausgerichtet ist. Diese sogenannten „Growth-Unternehmen“ bzw. „High-Growth-Unternehmen“ werden durch Business Angels, Venture-Capital-Gesellschaften oder durch Anleger an High-Tech-Börsen mit Risikokapital ausgestattet. Das gewonnene Kapital wird von den Gründern genutzt, um das Unternehmen – auch durch Verzicht auf kurzfristige Profitabilität – schnell wachsen zu lassen, damit dieses dann eine dominierende Position in einem sich ausbildenden Wachstumsmarkt einnehmen kann.

Die Marktlücke, in die Risikokapitalgeber vorstoßen, ist einfach zu bestimmen: Unternehmen in Wachstumsmärkten haben in der Regel keinen Zugang zu Bankkrediten. Sie besitzen keine nennenswerten Güter, die sie als Sicherheit für Kredite anbieten könnten. In ihrer Unternehmensgeschichte können sie in der Regel keine längeren Perioden der Profitabilität vorweisen. Die Firmen bewegen sich häufig in Märkten, die nur schwer einzuschätzen sind, weil sie sich erst langsam zu entwickeln beginnen. Die Technologie ist häufig so kompliziert, dass es für die Banken sehr aufwendig und teuer ist, die Grundlagen der Investitionsplanung der Betriebe zu prüfen.

Risikokapitalgeber stellen diesen jungen Unternehmen Kapital zur Verfügung. Sie gehen dabei das Wagnis ein, diese Mittel bei einem Scheitern komplett abschreiben zu müssen, hoffen aber im Erfolgsfall auf eine sehr hohe Rendite. Im Gegensatz zu Banken, die ihren Profit aus den Zinsen für die Kredite ziehen, die sie vergeben, verdienen die Risikokapitalgeber an der Differenz zwischen dem Einkaufs- und Verkaufspreis ihrer Unternehmensanteile.

Risikokapital ist kein langfristig angelegtes Geld. Die Idee, die einen Business Angel, eine Risikokapitalgesellschaft oder einen Anleger an Börsen für Wachstumsunternehmen treibt, besteht darin, in das Wachstum eines jungen Unternehmens zu investieren und die Anteile zu verkaufen, wenn die geförderte Manufaktur eine ausreichende Größe und Glaubwürdigkeit erreicht hat. Der „Exit“ eines Risikokapitalgebers geschieht entweder durch den Börsengang des Unternehmens, durch den Verkauf der Anteile an eine andere Firma oder durch den Rückverkauf der erworbenen Beteiligungen an die Unternehmensgründer. Kurzgefasst: Risikokapitalgeber kaufen Anteile an einer Unternehmensidee, nähren besagten Betrieb für einige Jahre mit Geld, Rat und Tat und verkaufen ihr Kontingent dann mit einem möglichst hohen Profit.

Die Konsequenz ist, dass Risikokapitalgeber ihr Engagement in Firmen immer „vom Ende her“ denken. Es dominiert die Logik eines „Exit-Kapitalismus“. Bereits bei der Planung eines Investments werden die verschiedenen Ausstiegsoptionen in Betracht gezogen, weil der Gewinn eines Risikokapitalgebers nicht die Dividende ist, die aus dem operativen Profit der Firma gezahlt wird, sondern in der Differenz zwischen dem Preis liegt, zu dem ein Risikokapitalgeber in selbige eingestiegen ist und dem Betrag, den spätere Käufer für die Anteile zu zahlen bereit sind.[2]

Dabei setzen die Risikokapitalgeber auf eine Diversifikationsstrategie. In der Regel geht eine Risikokapitalgesellschaft davon aus, dass lediglich zehn bis 20 Prozent aller Firmen, an denen man in einer Frühphase Anteile gekauft hat, mit großem Profit weiterverkauft werden können. Der Rest wird entweder als Totalverlust abgeschrieben oder billig weiterverkauft. Der Verkauf von Beteiligungen an einem oder zwei „Starunternehmen“ reicht jedoch in der Regel aus, um die angestrebte Verzinsungsrate von 25 bis 30 Prozent auf das eingesetzte Kapital zu erreichen.

Aus ihrem an einem Exit ausgerichteten Kalkül machen Risikokapitalgesellschaften kein Geheimnis. Den Unternehmen, die Anteile an Risikokapitalgesellschaften abgeben, wird mitgeteilt, dass die Risikokapitalgesellschaft nicht an einer langfristigen Investition interessiert ist, sondern das Kontingent wieder abstoßen wird, sobald sich eine lukrative Möglichkeit dazu ergibt. In den Verträgen zwischen den finanzierten Betrieben und den Risikokapitalgebern lassen sich die Financiers häufig das Recht einräumen, auch gegen den Widerstand der Unternehmensgründer einen Börsengang zu versuchen oder das Unternehmen zum Verkauf anzubieten.

Der primäre Fokus eines Risikokapitalgebers ist der Markt für Unternehmensanteile. Die Kernkompetenz von Risikokapitalgesellschaften liegt dementsprechend im Handel mit den Unternehmensanteilen und nicht in dem Produktmarkt, in dem sich die finanzierten Geschäfte bewegen. Zwar ist der Markt für Produkte und Dienstleistungen, auf dem ein durch Risikokapital finanziertes Unternehmen tätig ist, ein wichtiger Indikator für seine zukünftige Wertentwicklung; für den Erfolg oder Misserfolg einer Risikokapitalgesellschaft ist in letzter Konsequenz jedoch nur die Frage entscheidend, ob die erworbenen Anteile mit einem angemessenen Profit verkauft werden können.

Das führt dazu, dass durch den Risikokapitalgeber eine Logik in das gegründete Unternehmen hineingetragen wird, die sich als „kapitalmarktorientiert“ charakterisieren lässt. Die Fragen, die im Mittelpunkt stehen, sind primär die Folgenden: Welche Branchensegmente versprechen in den nächsten Jahren gute Exit-Möglichkeiten? Wie sieht eine Firma aus, die sich gut an die Börse bringen lässt? Welcher Typ von Unternehmen kann in ein paar Jahren für einen hohen Preis an andere, vor allem größere Konzerne verkauft werden? Wie viel Verlust eines Unternehmens ist der Käufer von Unternehmensanteilen in Kauf zu nehmen bereit? Welche Expansionsstrategie wird im Moment vom Kapitalmarkt besonders begrüßt?

Die Kapitalmarktlogik risikokapitalfinanzierter Betriebe diffundiert in Richtung auf Unternehmensgründer, Top-Management und Mitarbeiter. Die Unternehmer sind dabei an der Wertentwicklung ihrer Unternehmensanteile interessiert. Top-Manager nehmen geringere Gehälter in Wachstumsunternehmen in Kauf, weil für die ihnen zugesagten Unternehmensanteile eine rasante Wertentwicklung in Aussicht steht. Mitarbeiter entwickeln ein Kalkül, demgemäß die Summe, die monatlich auf ihr Gehaltskonto eingezahlt wird, ihre Lebenshaltungskosten decken soll, die über Aktienoptionen erworbenen Unternehmensanteile mit ihrer rasanten Wertsteigerung aber die „Beute für sie richtig fett“ machen sollen.

Die klassische Strategie einer Unternehmer: „Ich setze Kapital ein, lasse Leute für mich arbeiten und verdiene am produzierten Mehrwert“, das übliche Kalkül eines Managers: „Ich erhalte ein monatliches Gehalt dafür, dass ich das Unternehmen voranbringe“ sowie die wohlbekannte Rationalität eines Mitarbeiters: „Ich verkaufe meine Arbeitskraft gegen einen Gehaltsscheck“ spielen in risikokapitalfinanzierten Unternehmen eine vergleichsweise geringe Rolle. Diese Logiken werden mehr und mehr durch die Methodik des spekulativ ausgerichteten Kapitalanlegers ersetzt. Man lässt sich für seine Arbeitskraft zu einem erheblichen Teil in Unternehmensanteilen bezahlen, die es einem ermöglichen, schnell reich zu werden, die aber auch schnell wertlos werden können.

Die „klassische“ Logik des Verkaufsmodells „Arbeitskraft gegen Lohn“ oder des Konzeptes der „Unternehmensgründung gegen spätere Dividendenzahlung aus dem Unternehmen“ unterscheiden sich in mehreren Aspekten von der Logik des „Anlegers“, der durch seine Arbeitskraft, Führungsbereitschaft oder Gründerinitiative Anteile an einem Unternehmen erwirbt.

Das Interesse eines „Kapitalanlegers“ in einem schnell wachsenden Betrieb beruht darauf, dass das Unternehmen sich in einer Form entwickelt, die den Eigenwert am Kapitalmarkt steigen lässt. Es sind dann nicht nur externe Kapitalanleger (institutionelle Anleger, Risikokapitalgeber, Kleinaktionäre), die darauf achten, dass das Unternehmen sich an den Launen des Kapitalmarktes orientiert, sondern nunmehr auch die Organisationsmitglieder selbst. Sie treiben das Geschäft in eine Richtung, die an kurz- oder mittelfristigen Profiten am Kapitalmarkt orientiert sind. Die Interessen des „Stakeholders“ und des „Shareholders“ fallen tendenziell zusammen.

Wegen dieser Kapitalmarktorientierung gibt es für Gründer, Manager und Arbeitnehmer keinen Grund, ihre Arbeitskraft zu schonen. In kapitalmarktorientierten Unternehmen existiert die Vorstellung, dass der Betrieb in wenigen Jahren groß gemacht werde, der Wert ihrer Anteile sich dadurch vervielfache und sie dann die Möglichkeit haben, mit den Einnahmen aus dem Verkauf ihrer Beteiligungen ein gutes Leben zu führen. Für alle beteiligten Akteure ist dies natürlich ein riskantes Spiel, weil bei einer Unternehmenspleite die Anteile zwangsläufig wertlos werden und der regelmäßige Gehaltsscheck fortan ausbleibt. Bei Gründern, Top-Führungskräften und Mitarbeitern stellt sich also ein ähnliches Kalkül wie bei Risikokapitalgebern ein – mit dem Unterschied, dass sie nicht die Möglichkeit haben, ihr Risiko auf verschiedene Unternehmen zu streuen.


[1] Zu diesen Überlegungen erstmals Stefan Kühl: Konturen des Exit Kapitalismus. Wie Risikokapital die Art des Wirtschaftens verändert. In: Leviathan 30 (2002), S. 195–219.

[2] Siehe ausführlich zur Logik des „Exit-Kapitalismus“ S. Kühl: Exit (wie Anm. 37).

Assessment Center – Wie man die Mikropolitik in Personalauswahlverfahren reduziert

Da werden mehrere Bewerber einige Tage an einem Ort zusammengeholt, mit mehr oder minder schwierigen Aufgaben konfrontiert und bei der Lösung dieser Aufgaben von Psychologen sowie Führungskräften des Unternehmens aufmerksam beobachtet. Alles nur, um aus dem Kreis der Bewerber zielsicher die zum Unternehmen passenden Berufseinsteiger oder die bereits im Unternehmen vorhandenen „High Potentials“ auszuwählen.

Eine zeit- und kostenintensive Angelegenheit, angesichts derer sich nicht wenige Unternehmen fragen, ob sich dieser ganze Aufwand lohnt. Wie kann man aber die Effizienz oder Ineffizienz von Assessment Centern bestimmen? Die Leistungsfähigkeit der Abgewiesenen kann nur schwer beurteilt werden. Meistens ist das Gedächtnis in Organisationen sogar so schlecht, dass man sich nicht einmal daran erinnert, wenn die erfolgreiche Geschäftsführerin des Konkurrenzunternehmens vor zehn oder fünfzehn Jahren im eigenen Assessment Center als ungeeignet eingestuft wurde.

Ein Versicherungsunternehmen war in der glücklichen Lage, die Nützlichkeit ihres Auswahlverfahrens zu bestimmen. Die Vertriebsabteilung hatte zusammen mit der Personalabteilung ein Assessment Center durchgeführt und eine Anzahl von geeignet erscheinenden Vertriebsmitarbeitern ausgewählt. Aber der Markt explodierte und die Firma sah sich gezwungen, auch den zunächst abgewiesenen Kandidaten eine Stelle anzubieten. Diese Firma stellte einem Studenten die Verkaufszahlen der beiden Gruppen zur Verfügung, um zu messen, wie viel höher die Verkäufe von Versicherungspolicen durch die ursprünglich durch das Assessment Center ausgewählte Gruppe im Vergleich zu den ursprünglich Abgelehnten war.

Das Unternehmen erlebte eine Überraschung – die Verkaufszahlen der beiden Gruppen unterschieden sich nicht merklich. In einigen Aspekten waren die ursprünglich abgelehnten Kandidaten sogar besser als die zuerst eingestellten Vertriebsmitarbeiter. Die üblichen Verdächtigen für diesen Lapsus lassen sich schnell benennen: Das Verfahren war ungenügend, die engagierten Psychologen nicht professionell genug und die eigenen Führungskräfte durch die Assessoren-Schulung nur unzureichend vorbereitet. Aus diesem Blickwinkel folgt ein Wachstumsauftrag an die ganze Assessment Branche: Noch bessere Verfahren, Berater und Assessoren-Schulungen, um solche Missgeschicke möglichst zu vermeiden. Und ein Blick auf die wachsende Anzahl von Dissertationen, Forschungsprojekten und Veröffentlichungen zeigt, dass diese Branche ziemlich boomt.

Einige Kritiker nehmen eine ganz andere Perspektive ein: Die Qualität der durch Assessment Center getroffenen Entscheidungen, so der in Unternehmen häufig geäußerte Verdacht, ist auch nicht besser als die anderer anerkannter Auswahlverfahren wie Abiturnoten, Los, Vetternwirtschaft oder die mehr oder minder willkürliche Entscheidung eines Vorgesetzten. Ketzerische Stimmen weisen auf den „Viehmarkt-Charakter“ von Assessment Centern hin: Die Zuchtbullen müssten auch lediglich einige stolze Runden drehen, wodurch aber wenig über ihre spätere Leistungsfähigkeit im Unternehmen ausgesagt sei. Als „definitiver Beweis“ wird dann angeführt, dass die Beratungsfirmen, die Assessment Center anbieten, ihre eigenen Mitarbeiter in der Regel nicht durch Assessment Center auswählen.[1]

Ein Grund also auf Assessment Center in Unternehmen zu verzichten und sich billigeren Auswahlverfahren zuzuwenden? Nicht unbedingt – und zwar aufgrund von Funktionen des Assessment Centers, die nicht in den Broschüren, Handzetteln und Foliensätzen der Assessment Berater und Personalabteilungen auftauchen. Bei diesen beiden Funktionen sind die Bewerber, um die es ja offiziell geht, eigentlich nur noch Staffage. In Wirklichkeit geht es um die Personen auf der anderen Seite – die eigenen Führungskräfte und Assessoren.

Alteingesessene Manager zeigen sich häufig resistent gegen alle Versuche, ihnen über Schulungen moderne Führungseigenschaften beizubringen. Die Aufforderung, seinen eigenen Führungsstil zu reflektieren, wird dann mit Verweis auf die fehlende Zeit, die eigenen zufriedenen Mitarbeiter und die Ineffizienz solcher Schulungen erfolgreich abgewiesen. Über die Ausbildung zu Gutachtern in Assessment Centern kann diesen Führungskräften jedoch schonend beigebracht werden, worauf es bei einer modernen Führung ankommt. Durch die Anwendung dieser Kriterien bei der Beobachtung von Bewerbern werden diese dann auch noch eingeübt, ohne dass sich die Führungskräfte allzu sehr auf die Schulbank zurückbeordert fühlen müssten.

Aber noch wichtiger – Personaleinstellungen und Beförderungen sind eine heikle Angelegenheit: Persönliche Geschmäcker, Abteilungsegoismen, Nepotismus und berufliche Vorprägungen auf Seiten der Entscheidungsträger spielen eine wichtige Rolle. Ein idealer Nährboden für heftige mikropolitische Auseinandersetzungen, die noch dadurch verschärft werden, dass es häufig keine definitive Entscheidungsinstanz für Personaleinstellungen gibt. In dieser Situation bietet das Assessment Center eine formalisierte Möglichkeit, um Einstellungsentscheidungen zu fällen.

Betroffene Führungskräfte können über die Rolle des Assessoren in den Entscheidungsprozess eingebunden werden, um sich selbst von der Neutralität und Sachorientierung des Einstellungsverfahrens zu überzeugen. Mit Hinweisen auf die „Objektivität“ und „Rationalität“ des Assessment Centers kann Kritik an getroffenen Entscheidungen effizient abgewiesen werden. Sollte eine Anzahl von Bewerbern floppen, kann man nicht eine einzelne Führungskraft dafür verantwortlich machen, sondern das Verfahren oder die eingesetzten Berater: Man hatte ja die Kandidatin Müller ausgewählt, weil sie in allen Übungen und Gesprächen die beste Punktzahl bekommen hat und man deswegen nicht erwarten konnte, dass sie in der Praxis so versagt.[2]

Es geht also beim Einsatz von Assessment Centern vorrangig um eine Ruhigstellung der Organisation angesichts hochriskanter Entscheidungen und um die Ermöglichung einer effizienten Schuldabweisung für die beteiligten Führungskräfte. Die Bewerber selbst und ihre Qualitäten spielen eigentlich nur eine untergeordnete Rolle. Dieses Verfahren der Ruhigstellung funktioniert natürlich nur solange, wie alle Betroffenen von der Objektivität des Assessment Centers überzeugt sind oder wenigstens so tun als ob. Das bedeutet auch, dass Kritik an Assessment Centern möglichst klein gehalten werden muss – nicht weil es um die Qualität der Bewerber geht, sondern weil man keine adäquaten Alternativen zur Ruhigstellung in solch hochriskanten Entscheidungssituationen wie Einstellungen hat. Übrigens: Die Forschungsarbeit über das Assessment Center bei Vertriebsmitarbeitern lag über Jahrzehnte sicher verwahrt und für die Öffentlichkeit nicht zugänglich in den Stahlschränken der Personalabteilung des Unternehmens.[3]


[1] Ain Kompa: Assessment Center. Bestandsaufnahme und Kritik. München, Mering 1999.

[2] Oswald Neuberger: Assessment Center. Ein Handel mit Illusionen. In: Charles Lattmann (Hrsg.): Das Assessment Center Verfahren der Eignungsbeurteilung. Heidelberg 1989, S. 291–307.

[3] Nach 30 Jahren ist sie inzwischen zugänglich. Siehe Dirk Barnard: Der Erfolg von Bewerberauswahlverfahren für den Versicherungsaußendienst. Mannheim 1993.