06.01.2012  Beitrag drucken

Massenausfall


Wie der Kapitalismus an seiner eigenen Produktivität erstickt

(stark gekürzte Leseprobe aus  Ernst Lohoff/ Norbert Trenkle: Die große Entwertung, Teil 1, Kapitel 4.1 – 4.3)

Die Entfesselung der Finanzmärkte wird als der schlechthinnige Sündenfall gebrandmarkt, der die aktuelle Krise ausgelöst haben soll. Wurde in der Diskussion über die „Krise der Arbeitsgesellschaft“ in den 1970er und 1980er Jahren noch der durchschlagende Effekt der Produktivkraftentwicklung thematisiert und darüber nachgedacht, wie die neuen Reichtumspotentiale vor allem durch Arbeitszeitverkürzung und Verbesserung der Arbeitsbedingungen für die Gesellschaft genutzt werden könnten, so verschob sich seit den 1990er Jahren der Fokus immer mehr hin zu einer verkürzten „Kapitalismuskritik“, die sich darauf fixierte, das Problem sei das „Überwuchern“ der Finanzmärkte.
Keinesfalls jedoch ist die „übertriebene“ Spekulation die Ursache für die ökonomischen und sozialen Verwerfungen der letzten Jahrzehnte, und sie trägt auch nicht die Schuld an dem aktuellen Krisenschub, der immer bedrohlichere Dimensionen annimmt.
Gerade umgekehrt gilt: Ohne die massenhafte Kapitalisierung von Zukunftserwartungen hätten die gewaltigen Rationalisierungseffekte der dritten industriellen Revolution bereits in den 1980er Jahren eine unaufhaltsame Spirale massenhafter Entwertung in Gang gesetzt, und das warenproduzierende System wäre zunehmend an sich selbst erstickt. Die Entfesselung von Spekulation und Kredit verhinderte dies zunächst, weil sie neue Anlagemöglichkeiten für Kapital schuf, die in den Kernsektoren der Verwertung aufgrund der beschleunigten Verdrängung lebendiger Arbeitskraft nicht mehr gegeben waren. Doch das Verdrängte kehrt nun mit vervielfachter Gewalt zurück.

Wie die Produktivitätsrevolution unsichtbar gemacht wird

In den 1980er Jahren galt es noch allgemein als ausgemacht, dass die breitflächige Anwendung der IuK-Technologien zu einer massenhaften „Freisetzung“ von Arbeitskraft führen würde und deshalb, wie es damals hieß, „der Arbeitsgesellschaft die Arbeit ausgeht“. Diese Einschätzung ist jedoch in dem Maße zurückgenommen worden, wie die dritte industrielle Revolution voranschritt und ihre einschneidenden Auswirkungen den anfänglichen Schrecken verloren, während gleichzeitig die Aufblähung des fiktiven Kapitals nicht nur die Krise der Kapitalverwertung überdeckte, sondern auch zur Schaffung neuer Jobs führte. Nun lag freilich der Schwerpunkt der neu geschaffenen Arbeitsplätze keinesfalls in der Industrieproduktion, sondern im sogenannten Dienstleistungssektor, der allenthalben als der große Hoffnungsträger gehandelt wurde. Schon seit den 1970er Jahren galt es als ausgemacht, dass sich die moderne Gesellschaft von der Industrie- zur Dienstleistungsgesellschaft wandeln werde. Und in der Tat schienen sich, gemessen an der quantitativen Verschiebung zwischen den Beschäftigungssektoren, diese Prognosen auch zu bestätigen. In allen kapitalistischen Kernländern ist seit den 1970er Jahren die Beschäftigung im primären und sekundären Sektor massiv zurückgegangen, während der Dienstleistungssektor einen gewaltigen Zuwachs an Arbeitsplätzen erlebt hat. So ist in den G7-Staaten der Anteil des tertiären Sektors von 62 Prozent im Jahr 1984 auf 74 Prozent in 2007 angewachsen. In den USA waren es im Jahr 2007 sogar 79 Prozent (OECD 2008, S. 38 f.).
Dieser empirische Befund darf jedoch nicht zu der Annahme verleiten, dass damit auch die Abschmelzung der Arbeits- und Wertsubstanz gestoppt worden wäre. Denn entscheidend für die Verwertung des Werts ist ja nicht, dass überhaupt gearbeitet wird, sondern dass diese Arbeit einen Wert und einen Mehrwert „produziert“, der abgeschöpft werden kann. Das ist aber nur dort der Fall, wo Arbeitskraft in der Produktion von Waren im Dienste eines Kapitals vernutzt wird – und genau das trifft für einen Großteil der im Dienstleistungssektor verausgabten Arbeit gerade nicht zu.
Die durchgreifenden Effekte der dritten industriellen Revolution sind aber nicht nur mit Blick auf das scheinbare „Jobwunder“ im tertiären Sektor geleugnet worden. Teilweise ist auch ganz grundsätzlich in Frage gestellt worden, dass sie überhaupt einen nennenswerten Sprung in der Produktivitätsentwicklung bewirkt habe. (So etwa auch Exner 2009.) Am weitesten ging die These vom sogenannten Produktivitätsparadoxon der IT, die zuerst von dem US-Ökonomen Robert M. Solow im Jahr 1987 aufgebracht und vor allem in den 1990er Jahren heftig diskutiert wurde. (Vgl. im Überblick Piller 1998.) Ihr zufolge soll die Einführung der Informationstechnologien überhaupt keine signifikanten Produktivitätssteigerungen zur Folge gehabt oder die Produktivitätsentwicklung sogar gebremst haben. „You can see computing everywhere but in the productivity statistics“, so Solows drastische Formulierung (Solow 1987). Die empirische Beweisführung für diese These war jedoch selbst nach den gängigen statistischen Standards immer schon mehr als fragwürdig und ist daher auch vielfach kritisiert worden; mittlerweile gilt sie als widerlegt (Arens 2004, S. 252).
Im Wesentlichen operierten die Vertreter der Produktivitätsparadoxon-These mit hochaggregierten Zahlen der volkswirtschaftlichen Statistik, die alle Sektoren zusammenfassten und schon allein aus diesem Grund für eine Analyse des behaupteten Kausalzusammenhangs völlig ungeeignet sind. So argumentierte Solow, dass die IT-Investitionen in den USA seit den frühen 1960er Jahren zwar exponentiell zugenommen hätten, bei der gesamtwirtschaftlichen Produktivität jedoch keine signifikante Veränderung feststellbar sei. Unter die Kategorie „IT-Investitionen“ subsumierte er dabei im Prinzip aber alle irgendwie gearteten Ausgaben für die Computertechnologie im weitesten Sinne, ganz egal, welche Anwendungen sich dahinter verbargen. Teilweise wurden sogar die Gesamtverkaufszahlen von Computern als Indikator für den IT-Einsatz herangezogen, ohne auch nur privaten Konsum und Investitionen auseinanderzuhalten (Brödner/Rolf 2005). Es ist klar, dass die Umstrukturierungen im Produktionsprozess sich damit nicht einmal annäherungsweise erfassen lassen, sondern im Gegenteil statistisch unsichtbar gemacht werden. Soweit Solow und seine Anhänger überhaupt zwischen volkswirtschaftlichen Sektoren unterschieden, mussten sie zwar zugeben, dass die Produktivitätsentwicklung in der Industrieproduktion deutliche Steigerungen aufwies, doch galt ihnen das als nicht sehr bedeutsam, weil dieser Sektor vor allem in den USA einen nur geringen Anteil der gesamtwirtschaftlichen Beschäftigung repräsentiere. Im Mittelpunkt der Argumentation stand daher der Dienstleistungssektor, dessen (der statistischen Messung zufolge) äußerst schwache Produktivitätsentwicklung als Beleg für das Produktivitätsparadoxon galt.
Nun sind zum einen die Kriterien für die Produktivitätsberechnung im Dienstleistungssektor selbst nach den üblichen statistischen Methoden ziemlich willkürlich und daher auch heftig umstritten: „Wenn die Statistik den Umsatz als Output-Maßgröße wählen würde, dann würde sie beispielsweise im Falle geringerer Abschlussgebühren für Versicherungen von einer fallenden Produktivität ausgehen, wenngleich die Senkung der Gebühren der gestiegenen Produktivität der Verwaltung geschuldet sein mag. Aus diesem Grunde nimmt das US-amerikanische Bundesamt für Statistik für die meisten dieser Bereiche die Lohnsumme als Maßgröße für die Ausbringungsmengen. Dies führt allerdings dazu, dass das Produktivitätswachstum weitgehend mit den Lohnsteigerungen gleichgesetzt wird.“ (Scherrer 2000, S. 11 f.) Entscheidend ist hier aber noch ein anderer Aspekt: Mit der Fokussierung auf den tertiären Sektor wurden ausgerechnet die technologisch-organisatorischen Umwälzungen im für die Wertproduktion zentralen sekundären Sektor ausgeblendet und für nebensächlich erklärt. Mehr noch: Die Abnahme der Beschäftigung in der Industrieproduktion, die ja wesentlich der rasanten Rationalisierung geschuldet war, geriet sogar implizit zum Argument für die These vom mangelnden Produktivitätszuwachs im Gefolge der IT-Investitionen.
Schon eine einfache Aufschlüsselung auf Branchenebene verdeutlicht die Haltlosigkeit dieser These. Robert Brenner zufolge lag in den USA das Wachstum der Arbeitsproduktivität in den Industriezweigen für dauerhafte Güter von 1993 bis 1999 im jährlichen Durchschnitt zwischen 3,5 Prozent bei Kfz und Ausrüstungen, 12,9 Prozent bei Maschinerie für Handel und Gewerbe und stolzen 20,1 Prozent bei elektrischen und elektronischen Ausrüstungen (Brenner 2002, S. 256, FN 12). Von einer schwachen Produktivitätsentwicklung also keine Spur.
Aber selbst diese durchaus beeindruckenden Zahlen zeichnen noch ein höchst unvollständiges Bild vom tatsächlichen Ausmaß der dritten industriellen Revolution. Denn die üblichen statistischen Indikatoren zur Berechnung der Arbeitsproduktivität tendieren dazu, die Entwicklung dieser Größe systematisch zu unterschätzen. Der Grund dafür liegt darin, dass die Arbeitsproduktivität ein Verhältnis zwischen stofflichem Output und Arbeitseinsatz darstellt, also in der Menge an hergestellten Waren pro Arbeitsstunde gemessen werden müsste. Da aber die Statistik gewöhnlich auf monetären Größen (Preise, Umsatz, Kosten, Einkommen, Gewinne etc.) basiert, kann sie nur indirekte Rückschlüsse auf die stoffliche Ebene ziehen (Costas 1984, S. 141). Dieses Zurückrechnen wirft jedoch eine ganze Reihe von letztlich unlösbaren Problemen und Widersprüchen auf, die umso stärker ins Gewicht fallen, je höher das statistische Aggregationsniveau ist, je mehr unterschiedliche Waren und Produktionszweige also auf einen gemeinsamen monetären Nenner gebracht werden.
Ein ganz offensichtliches Problem besteht zunächst darin, dass in die Preise alle möglichen betrieblichen und außerbetrieblichen Komponenten eingehen, die mit dem Produktivitätsniveau in der Produktion nicht das Geringste zu tun haben: Verwaltungs- und Vertriebskosten, Steuern und Abgaben, Währungsschwankungen und Rohstoffspekulationen etc. Deshalb sind selbst schon auf der Ebene von Einzelunternehmen direkte Rückschlüsse vom Umsatz auf den stofflichen Output mehr als fraglich. Und selbstverständlich verschärft sich das Problem, je mehr Zahlen von Unternehmen und Branchen zusammengefasst werden. Eine Berechnung der „volkswirtschaftlichen Produktivität“ aus dem Verhältnis BIP zu Arbeitseinsatz, also auf dem höchsten Aggregationsniveau, ist daher für eine Analyse der gesellschaftlichen Produktivkraft vollkommen unbrauchbar. Allenfalls hat sie den Charakter einer Rentabilitätsberechnung (also ein Verhältnis von Geldgrößen), sagt aber rein gar nichts über die Entwicklung der stofflichen Produktivität aus.
Hinzu kommt aber noch ein ganz grundsätzlicher Aspekt, der sich direkt aus dem inneren kapitalistischen Selbstwiderspruch zwischen abstraktem und stofflichem Reichtum ergibt. Wenn die Produktivitätsentwicklung ein Verhältnis zwischen physischen Größen (Menge an Produkten) und verausgabter Arbeitszeit bezeichnet, dann heißt das nichts anderes, als dass sie in der Dimension des stofflichen oder konkreten Reichtums angesiedelt ist. Steigerung der Produktivität bedeutet, dass eine größere Menge stofflichen Reichtums pro Zeiteinheit hergestellt werden kann. Damit wird die gesellschaftliche Arbeitsstunde, also die zeitliche Norm, die den Wertmaßstab bestimmt, neu definiert: Der Wert jeder einzelnen Ware des betreffenden Produktionszweiges sinkt, weil sie ja nun, bezogen auf den gesellschaftlichen Standard, weniger abstrakte Arbeitszeit repräsentiert. Das bedeutet aber nicht, dass sich der Wert der gesellschaftlichen Arbeitsstunde verändern würde. Dieser sinkt nicht und steigt nicht, sondern bleibt immer gleich (Postone 2003, S. 434 f.). Was sich verändert, ist die zeitliche Norm, die den stofflichen Inhalt bestimmt. Mit jedem Zuwachs der Produktivität stellt sich die in einer gesellschaftlichen Arbeitsstunde verausgabte abstrakte Arbeit in einem höheren Produktausstoß dar, was umgekehrt heißt, dass sich die durch sie repräsentierte Wertsumme auf eine größere Anzahl von Waren aufteilt. Wird also beispielsweise die Produktionszahl von Flachbildfernsehern pro Arbeitsstunde verdoppelt und deshalb der Wert pro Stück von, sagen wir, 600 Euro auf 300 Euro halbiert, dann bleibt der Produktionswert pro Stunde gemessen in Geldeinheiten genau gleich, nur dass die 600 Euro sich jetzt in zwei Fernsehern statt in einem darstellen. (Anm. d. Verf.: Zum Zweck der Veranschaulichung liegen dieser Argumentation einige vereinfachende Annahmen zugrunde. Zum einen wurde so getan, als ließe sich der Wert direkt in Preise übersetzen, was aus verschiedenen Gründen nicht der Fall ist. Zum anderen: Selbst wenn wir davon ausgehen, dass die Preisentwicklung die Wertminderung adäquat widerspiegelt, reduziert sich durch eine Halbierung der notwendigen Arbeitszeit zunächst nur der in der Produktion des Fernsehers neu zugesetzte Wert. Andere Wertbestandteile, die auf das Produkt übertragen werden, dargestellt etwa in Rohstoffen, Vorprodukten und anteiligem Maschinenverschleiß, werden im Zuge einer allgemeinen Produktivitätsentwicklung auch reduziert, aber möglicherweise nicht im gleichen Ausmaß.)
Versuchen wir nun aber, die Produktivitätsentwicklung in monetären Größen zu messen, kommen wir zu dem Ergebnis, dass gar keine Veränderung stattgefunden hat. Die gleiche Zahl an Arbeitskräften „produziert“ die gleiche Wertsumme wie zuvor. Dass diese Wertsumme sich auf eine größere Menge stofflichen Reichtums aufteilt, kann in der Dimension des abstrakten Reichtums gar nicht abgebildet werden, weil in ihr ja gerade vom konkreten Inhalt der Produktion und mithin auch von den veränderten Produktionsbedingungen abstrahiert wird. Damit wird aber auch die historische Basisdynamik ausgeblendet, die, vom inneren kapitalistischen Selbstwiderspruch angetrieben, jenen „Tretmühleneffekt“ erzeugt, der sich auch als eine permanente Verdichtung der Zeit beschreiben lässt (Postone 2003, S. 436 f.). In der Dimension des abstrakten Reichtums herrscht ein merkwürdiger unhistorischer Stillstand, der in einem schreienden Kontrast steht zur ungeheuren historischen Dynamik, die der Kapitalismus gerade aufgrund des daraus resultierenden Zwangs zur ständigen Neubestimmung der vorherrschenden zeitlichen Norm, also der „gesellschaftlichen Arbeitsstunde“, entwickeln muss: „Die abstrakte Zeiteinheit lässt ihre historische Neubestimmung nicht manifest zutage treten: sie behält ihre konstante Form als Gegenwartszeit. Somit existiert der historische Fluss hinter dem Rahmen abstrakter Zeit, erscheint aber nicht in ihm. Der historische ‚Inhalt‘ der abstrakten Zeiteinheit bleibt genauso verborgen wie der gesellschaftliche ‚Inhalt‘ der Ware.“ (Postone 2003, S. 444) Aus diesem Grund ist jeder Versuch, die Produktivitätsentwicklung monetär abzubilden, von vorneherein und ganz grundsätzlich zum Scheitern verurteilt.

Der hedonische Preisindex und seine Brüder

Ganz besonders deutlich wird das ausgerechnet dort, wo die Statistiker versuchen, der Tatsache methodisch Rechnung zu tragen, dass nicht nur die Produktionsverfahren sich verändern, sondern auch die Produkte im Zuge des technischen Fortschritts komplexer werden. So unterscheidet sich etwa ein Auto aus dem Jahr 2011 ganz wesentlich von einem aus den 1970er Jahren. Selbst ein Kleinwagen ist heute vollgestopft mit Elektronik und allerlei Sicherheitstechnologie, die früher nicht einmal in Luxuskarossen enthalten war, weil die Technik dafür schlicht nicht zur Verfügung stand. Ein Golf der ersten Generation hat mit dem neuesten Modell von heute eigentlich nur noch den Namen gemeinsam. Noch krasser stellt sich dieses Problem bei allen Produkten und Anwendungen der IuK-Technologien, wo der technologische Fortschritt extrem schnell voranschreitet. Dem sogenannten Moore’schen Gesetz zufolge verdoppelt sich die Leistung von Mikroprozessoren und Computern alle achtzehn Monate, während im gleichen Zeitraum der Preis für rechnergestützte Informationsverarbeitung auf die Hälfte fällt. Wie aber lässt sich das statistisch abbilden? Wie schlägt es sich in der Produktivitätsberechnung nieder, dass ein PC heute sehr viel billiger ist als vor zehn Jahren, dabei aber ein Vielfaches der Rechenkapazität enthält, oder ein Handy inzwischen zu einem tragbaren Multimediagerät geworden ist?
Die Statistiker haben dafür verschiedene Methoden entwickelt, deren bekannteste der sogenannte hedonische Preisindex ist. Im Kern laufen alle diese Methoden darauf hinaus, die qualitativen Veränderungen der Produkte monetär zu bewerten, um auf diese Weise eine allgemeine Vergleichbarkeit herzustellen. (Vgl. Europäische Gemeinschaften 2005, S. 20 ff; Statistisches Bundesamt 2002.) Demnach wird dann beispielsweise ein Auto der neuesten Modellreihe, das gegenüber seinem Vorgängermodell zusätzliche Ausstattungsmerkmale besitzt, rechnerisch mit einem, sagen wir, 10 Prozent höheren Wert angesetzt. Ist nun der Verkaufspreis ebenfalls um 10 Prozent angehoben worden, gilt das nicht als Preiserhöhung, sondern als monetäre Entsprechung eben dieser qualitativen Verbesserung. Weil dem Mehr an Geld ja auch ein Mehr an Leistung entspricht, wird der gestiegene Preis in der Statistik daher wieder herausgerechnet.
Sie weist dann bei Autos eine Inflationsrate von null aus. Bleibt der nominelle Verkaufspreis gleich, vermeldet die Statistik gar eine Preissenkung, weil ja für die gleiche Geldsumme mehr „Nutzwert“ gekauft werden kann. Tatsächlich ist aus diesem Grund der offizielle Preisindex für Automobile beispielsweise im Zeitraum 1995 bis 2001 um nur 5,2 Prozent gestiegen, während die Verkaufspreise mit 17,2 Prozent deutlich stärker zugelegt haben. Die Differenz, so die Erklärung des Statistischen Bundesamtes, „ist auf Qualitätsverbesserungen der PKWs zurückzuführen, die im gesamten Zeitraum einen Wertanteil von 11,9 Prozent der Verkaufspreise des Jahres 1995 ausmachen“ (Statistisches Bundesamt 2003). (Zu den Berechnungsmethoden im Einzelnen vgl. Frei 2005.)
Was dabei freilich unberücksichtigt bleibt, ist die Tatsache, dass die Neuwagenkäufer ja gar nicht die Wahl zwischen einem Auto der neuen und einem der alten Modellreihe haben und daher die höheren Preise so oder so zahlen müssen, auch wenn die Statistik etwas anderes vermerkt. Der Alltagsverstand hat also durchaus nicht ganz Unrecht, wenn er sich über die Diskrepanz zwischen der offiziellen Inflationsrate und dem von ihm wahrgenommenen Kaufkraftschwund wundert.
Nun könnten der hedonische Preisindex und ähnliche Verfahren zwar zunächst einmal als Versuch gewertet werden, die Veränderungen auf der Ebene der stofflichen Reichtumsproduktion wenigstens annäherungsweise abzubilden. Doch statt diese Veränderungen als solche in den Blick zu nehmen und systematisch darzustellen, richtet sich das ganze Bemühen darauf, sie monetär zu beziffern, also in die Kategorien der abstrakten Reichtumsproduktion zu übersetzen. Dadurch wird aber der Widerspruch zwischen den beiden Dimensionen der kapitalistischen Reichtumsform nicht etwa aufgelöst, sondern auf absurde Weise noch einmal reproduziert, womit dann die Verwirrung komplett wäre.
Schauen wir uns das Vorgehen noch einmal an: Um die Qualitätsveränderungen zu erfassen, wird zunächst der in der Wertproduktion vollzogene Abstraktionsprozess zurückverfolgt. Wurden hier die qualitativ unterschiedlichen Waren A, B, C etc. einander gleichgesetzt und darauf reduziert, Ausdruck einer bestimmten Summe an Wert zu sein, versuchen die Statistiker nun in sehr aufwendigen Verfahren die stofflich-konkreten Unterschiede wieder zu entschlüsseln, die auf der Wert- und Preisebene unsichtbar sind, bei Autos beispielsweise eine Verbesserung des Bremssystems, ein höherer Aufprallschutz und hellere Scheinwerfer oder bei Computern eine höhere Taktfrequenz, schnellere Zugriffszeiten etc. Selbstverständlich kann das aufgrund der hohen Komplexität der Produkte und der Produktionsverfahren allenfalls ansatzweise gelingen, weil eine Vielzahl von Parametern berücksichtigt und verglichen werden müssen, dennoch findet zumindest eine gewisse Annäherung an die Ebene der stofflichen Reichtumsproduktion statt.
Dann aber wird die ganze Sache sogleich wieder auf den Kopf gestellt. In einem nächsten Schritt werden nun nämlich die so identifizierten qualitativen Differenzen mit einem fiktiven monetären Maßstab bewertet, um daraus dann die neuen statistischen Pseudopreise zu berechnen. Kostet also beispielsweise ein Computer im Laden genauso viel wie das Vorgängermodell, sagen wir 500 Euro, weist aber eine höhere Taktfrequenz und schnellere Zugriffszeiten auf, die von den Statistikern mit 100 Euro bewertet werden, so ist er rechnerisch um 100 Euro billiger geworden, wird in der Verbraucherpreisstatistik also nur mit 400 Euro ausgewiesen, obwohl der Käufer eben jene 500 Euro hinblättern musste. Der kurze Ausflug in die Dimension des Stofflich-Konkreten endet also wieder genau da, wo er seinen Anfang nahm: in der Dimension des abstrakten Reichtums. Nur dass mit den Maßstäben auch die Ergebnisse verändert wurden, ganz so, als wollten die Statistiker den Prozess der Wertabstraktion, der seinem Wesen nach bewusstlos und hinter dem Rücken der Menschen verläuft, bewusst nachvollziehen und rechnerisch „korrigieren“.
Wer sich jetzt die Augen reibt, hat Recht. Nicht ganz zufällig erinnert das Ganze an die Versuche im sogenannten Realsozialismus, die „wahren Werte“ der Produkte auszurechnen und für die volkswirtschaftliche Planung zu nutzen; eine Planung, die zum Scheitern verurteilt war, weil sie immer schon die Grundkategorien der kapitalistischen Reichtumsform (Ware, Wert, Geld, Preis, Lohn etc.) voraussetzte und sich einredete, die der Wertproduktion inhärenten, objektivierten Zwangsgesetze ließen sich bewusst steuern und „anwenden“. Dies zu versuchen kommt jedoch einer Quadratur des Kreises gleich. (Vgl. Stahlmann 1990 sowie etwas ausführlicher Kurz 1991.)
Aber nicht nur methodisch, sondern auch politisch gesehen lassen sich Parallelen zum verblichenen Staatssozialismus ziehen, insofern nämlich Verfahren wie der „hedonische Preisindex“ das Material für eine systematische Schönfärberei der offiziellen Statistik liefern, die durchaus mit der im ehemaligen Ostblock vergleichbar ist. Einen Effekt haben wir schon angesprochen: Durch die monetäre Bewertung der Qualitätsverbesserungen wird die in der offiziellen Statistik ausgewiesene Inflation kleingerechnet. Weit weniger wahrnehmbar, weil weit entfernt von der unmittelbaren Erfahrung, ist der zweite wichtige Effekt: die statistische Vergrößerung des BIP. Dieser Effekt kommt so zustande, dass in Umkehrung des bei der Inflationsberechnung angewandten Verfahrens die Umsätze der qualitativ verbesserten Produkte rechnerisch höher angesetzt werden und als solche in die volkswirtschaftliche Bilanzierung eingehen.
Das klingt verrückt, folgt aber der immanenten Logik, alle qualitativen Veränderungen auf der Preisebene abzubilden. Um noch einmal auf das Beispiel des Computers zurückzukommen: Da dieser unverändert 500 Euro kostet, aber die genannten technischen Verbesserungen enthält, die von den Statistikern mit 100 Euro bewertet werden, korrigieren sie in der BIP-Statistik den Preis um eben diesen Betrag nach oben, auf 600 Euro. Beträgt dann der jährliche Gesamtumsatz mit diesen und ähnlichen Computermodellen effektiv sagen wir 5 Mrd., so weist hingegen das BIP einen rechnerischen Betrag von 6 Mrd. aus. Mit anderen Worten: Das offizielle BIP, das eigentlich nur die monetäre Summe der Waren und Dienstleistungen, die in einem Jahr produziert wurden, ausweisen sollte, enthält in Wahrheit auch rein fiktive Zahlen, denen keine realen Umsätze entsprechen.
Spätestens hier schlägt das Verfahren des hedonischen Preisindex’ vollends ins Absurde um. Was als Versuch begann, die stofflich-konkreten Prozesse abzubilden, gerät zu einer blanken Manipulation der Statistik. Statt die Dimension des stofflichen Reichtums sichtbar zu machen, mündet die monetäre Bewertung der mühsam herausgefilterten Qualitätsveränderungen gerade im Gegenteil darin, die Akkumulation abstrakten Reichtums schönzurechnen.
Es ist gewiss kein Zufall, dass diese kosmetische Operation an der Statistik in den USA ausgerechnet in den 1990er Jahren eingeführt wurde, als die dritte industrielle Revolution an Fahrt gewann – die EU zog rund zehn Jahre später nach (Statistisches Bundesamt 2002; FAZ 21.4.2005). Ausschlaggebend war vor allem der rasante Preisverfall bei IT-Produkten im Gefolge des gewaltigen Produktivitätssprungs, der sich negativ auf die offiziellen Wachstumszahlen auswirkte. Der stoffliche Reichtum rückte also ausgerechnet zu dem Zeitpunkt ins Visier der politischen Statistik, als dieser in ein zunehmendes Missverhältnis zur Dimension des abstrakten Reichtums geriet und die Produktivitätsentwicklung zunehmend die Wertproduktion untergrub. Wo diese Tendenz ihre Spuren im BIP hinterließ, besann sich die Politik plötzlich darauf, dass die monetäre Dimension ja gar nicht den gesamten gesellschaftlichen Reichtum abbildet – allerdings nur, um genau diese Dimension noch einmal kosmetisch zu rehabilitieren.
Dass fiktive rechnerische Umsätze keinen Beitrag zur Kapitalverwertung leisten, wird sogar der unkritischste Volkswirt wohl zugeben müssen. Zu den Kuriositäten des auf der Dynamik des fiktiven Kapitals beruhenden Krisenaufschubs gehört es aber, dass das statistische Facelifting dennoch seinen Teil dazu beigetragen hat, die weltwirtschaftliche Dynamik wieder in Schwung zu bringen. Denn obwohl sich die Manipulation der Statistik vor den Augen der Öffentlichkeit vollzog und in Wissenschaft und Medien breit diskutiert und kritisiert wurde, war das bald wieder vergessen und die geschönten Wachstumszahlen galten schließlich doch als Zeichen für die gewaltigen Zukunftsperspektiven der „New Economy“.
Die Simulation dynamischen Wirtschaftswachstums bei gleichzeitig niedriger Inflation schürte so jene Zukunftserwartungen, die den Treibsatz der Aktien- und Wertpapierspekulation ausmachten, welche wiederum auch die Realwirtschaft wieder in Schwung brachte. Insofern ist die systematische statistische Schönfärberei ein Moment der zunehmenden Fiktionalisierung der Ökonomie seit den 1990er Jahren, die auf einer permanenten Errichtung potemkinscher Dörfer beruhte. Auch darin erwies sich der westliche Kapitalismus seinem untergegangenen Bruder aus dem Osten als weit überlegen.


Literatur

Arens, Thomas (2004): Methodische Auswahl von CRM-Software, Göttingen 2004.
Brenner, Robert (2002): Boom & Bubble, Hamburg 2002.
Brödner, Peter/Rolf, Arno (2005): Das Produktivitätsparadoxon der IT. Wahn und Wirklichkeit einer neuartigen Technik. Thesen zur 25. Tagung „Mensch-Maschine- Kommunikation“ (MMK 2005), http://tu-dresden.de/die_tu_dresden/zentrale_einrichtungen/mz/veranstaltungen/konferenzen/2005/mmk_2005/arbeitsgruppen/moderation_ag1.pdf.
Costas, Ilse (1984): Grundlagen der Wirtschafts- und Sozialstatistik, Frankfurt/M. 1984.
Europäische Gemeinschaften (2005): Handbuch zur Preis- und Volumenmessung in den Volkswirtschaftlichen Gesamtrechnungen, Luxemburg.
Exner, Andreas (2009): Krise der Produktivität, Grenzen des Wachstums, in: Streifzüge 46/2009.
Frei, Andreas (2005): Was hätte man 1960 für einen Sharan bezahlt?, Diplomarbeit an ETH Zürich, www.ivt.ethz.ch/docs/students/sa139.pdf.
KfW (2004): Triebfedern des US-BIP-Wachstums im Jahr 2003, KfW-Research, Nr. 11, Februar 2004, Frankfurt/M.
Kurz, Robert (1991): Der Kollaps der Modernisierung, Frankfurt/M.
OECD (2008): Labour Force Statistics 1987–2007.
Piller, Franz Thomas (1998): Das Produktivitätsparadoxon der Informationstechnologie, in: WIST, 27. Jg. (1998), H. 5, S. 257–262.
Postone, Moishe (2003): Zeit, Arbeit und gesellschaftliche Herrschaft, Freiburg/Brsg.
Solow, Robert M. (1987): Review of ‚Manufacturing Matters‘, in: The New York Times Book Review, 12.7.1987.
Scherrer, Christoph (2000): „New Economy“: Theoretische Perspektiven, in: Duisburger Arbeitspapiere Ostasienwissenschaften, Nr. 34/2000, S. 1–16.
Stahlmann, Johanna (1990): Die Quadratur des Kreises. Funktionsmechanismus und Zusammenbruch der sowjetischen Planökonomie, in: Krisis 8/9, Erlangen.
Statistisches Bundesamt (2002): Erstmals hedonische Qualitätsbereinigung in der Preisstatistik, innovationsreport 11.7.2002, http://www.innovations-report.de/html/berichte/statistiken/bericht-11257.html.
Statistisches Bundesamt (2003): Hedonische Preismessung bei Personenkraftwagen, innovationsreport 17.2.2003, http://www.innovations-report.de/html/berichte/statistiken/bericht-16511.html.
Trenkle, Norbert (1999): Es rettet Euch kein Billiglohn, in: Kurz, Robert/Lohoff, Ernst/Trenkle, Norbert (Hrsg.): Feierabend. Elf Attacken gegen die Arbeit, Hamburg 1999.

(veröffentlicht in: Streifzüge 53/2011)