MACNOTES

Veröffentlicht am  26.11.12, 1:40 Uhr von  Alexander Trust

Das Bloggermärchen: Megaupload-Aus Schuld an Ebbe an den Kinokassen?

Von links nach rechts: Kim DotCom, Steve Wozniak, Ira Rothken, Foto: Kim DotCom Von links nach rechts: Kim DotCom, Steve Wozniak, Ira Rothken, Foto: Kim DotCom

Es gibt eine Studie. Winzige Teile davon wurden nun in Form eines “Paper” publik. Megaupload und die Filmindustrie respektive die Umsätze der Kinobetreiber werden darin genannt. Es wird eher vorsichtig eine These von Wissenschaftlern der Münchener Ludwig-Maximillians-Universität (LMU) und der Kopenhagen Business School formuliert, dass die Schließung von Megaupload einen negativen Effekt hatte. Ärgerlich ist neben der unreflektierten Berichterstattung, die teils nachweislich falsche.

Das Paper kann sich jeder im Internet herunterladen (engl.). Es umfasst drei Seiten. Bei Caschy wird darauf nicht hingewiesen. Trotzdem formuliert Casi leider, dass “die Ergebnisse belegen, dass es lediglich die großen Blockbuster sind, die von der Schließung Megauploads profitieren können. Bei kleineren Unternehmen sind die Einnahmen durch Kinogänger sogar eingebrochen seitdem.”

Diese Behauptung ist sehr weit von der Realität entfernt. Zum einen haben die Betriebswirtschaftler lediglich “Filme” und deren Umsatz an Kinokassen untersucht, können also gar keine Aussagen zu irgendwelchen Unternehmen treffen. Das allerdings ist vielleicht nur unglücklich formuliert. Geschenkt. Problematisch ist die Aussage trotzdem, denn so viele Vorurteile es gegenüber Filesharing gibt, so selten wird tatsächlich richtig argumentiert. Das ist mehr als schade.

Futurezone, das Casi als Quelle verlinkt, weist seinerseits zwar auf das Paper zur Studie hin, doch werden die Aussagen daraus dort ebenfalls unreflektiert wiedergegeben. Schuld ist eventuell der Faktor Zeit, der den Redakteur dazu veranlasste, die Informationen lediglich zusammenzufassen, von dort, wo er sie vorfand, bei Torrentfreak (engl.). Selbst dort wird über Vieles hinweggesehen, das den Wert der Studie einschränkt.

Was ist die Studie Wert?

Peukert und Claussen leiten ihr Paper mit den Worten ein, dass sie ein Quasi-Experiment unternommen hätten. Das ist ein technischer Term aus der (Sozial-)Wissenschaft, der vorab eine Menge über den Wert der Ergebnisse aussagt. Gegenüber echten, respektive randomisierten Experimenten gibt es die Einschränkung, dass Versuchspersonen (oder Objekte) vorher anhand von Kriterien festgelegt werden, und nicht zufällig ausgewählt. Auf diese Weise lassen sich leicht Zusammenhänge zwischen vorher festgelegten Größen herausfinden, jedoch keine Aussagen treffen über Ursache und Wirkung (Kausalzusammenhang). Gerade das “zufällige” Untersuchungsdesign kann Ergebnisse erzeugen, die als Störfaktoren Hinweise auf den Zusammenhang der Größen geben können. Einfach formuliert: Wer Quasi-Experimente durchführt, nimmt in Kauf, dass er nur das sieht, was er sehen will.
Spätestens also nach der Lektüre des ersten Satzes aus dem Paper hätten alle, die über das Thema geschrieben haben, sich bewusst sein können, dass die Aussagekraft geringer sein könnte als erhofft, und der gewünschte, formulierte Zusammenhang “rein theoretisch” besteht und “nicht überprüft” werden kann.

Warum Megaupload?

Das Paper wirft allerdings noch weitere Fragen auf, und zwar heißt es darin bspw.:

“Megaupload has been one of the most popular file hosting services worldwide (self-reportedly) accounting for 4% of the entire internet traffic.”

Peukert, Christian u. Claussen, Jörg

Was die Akademiker in Klammern schreiben, hätte man eigentlich “fett” hervorheben müssen. Der Grund, warum sie sich Megaupload als Untersuchungsobjekt ausgewählt haben, liegt an dessen vermeintlicher Beliebtheit. Allerdings vertraute man dabei auf die “eigene Aussage” des One-Click-Hosters. Es ist nicht belegt, ob Megaupload tatsächlich so viel Traffic erzeugt hat. An dieser Stelle muss man eigentlich Megaupload selbst unter die Lupe nehmen. Je niedriger die effektive Reichweite, und sei es regional, ausfällt, desto geringer muss auch der von Peukert und Claussen behauptete Zusammenhang ausfallen. Angenommen Italien gehörte mit zu den 49 Ländern, für die die Akademiker diese Aussage formulieren: Was aber, wenn in Italien Megaupload gar keine große Rolle gespielt hat?

Falsche Berichterstattung

Ärgerlich ist daneben außerdem die falsche Berichterstattung, die die Auseinandersetzung mit dem Datenmaterial verschleiert: Casi schreibt, dass an der LMU und der Kopenhagen Business School “(f)ünf Jahre lang” die Einspiel-Ergebnisse von mehr als 1300 Filmen in 49 Ländern “in die Untersuchung” eingeflossen sind. Das stimmt nicht! Der Leser denkt im ersten Moment: Wow, da hat jemand 5 Jahre geforscht, das ist bestimmt seriös. Tatsächlich haben die Betriebswirtschafts-Wissenschaftler lediglich vorhandene Daten von 1344 Filmen aus 49 Ländern aus dem Zeitraum 2007 (KW 31) bis 2012 (KW 35) “ausgewertet”, wie sie in ihrem Paper schreiben.

“We use weekly data from 1344 movies in 49 countries spanning from 2007w31 to 2012w35.”

Peukert, Christian u. Claussen, Jörg

Nur leider ist Casi nicht der einzige, der diese falsche Behauptung formuliert. Matthias Huber von der Süddeutschen formulierte, dass die Filme “über einen Zeitraum von fünf Jahren beobachtet” wurden. Das wurden sie nicht, Herr Huber. Man hat lediglich Daten aus 5 Jahren ausgewertet. Die Studie, die sicherlich mit Hilfe von Computern Ergebnisse berechnete, hat selbst vielleicht ein paar Monate Zeit in Anspruch genommen, oder nicht einmal das. Darüber wird in dem Paper keine Aussage getroffen. Sicherlich hat das Ausdenken einer Versuchsanordnung und das Programmieren einer Schnittstelle, um das Datenmaterial entsprechend für ein Statistiktool aufzubereiten, länger gedauert, als die Berechnung durch den Computer. Bei Gulli wird es etwas anders dargestellt, doch auch Sener Dincer übernimmt die Behauptung aus dem Paper, Megaupload sorge für geringere Einnahmen an den Kinokassen, als handele es sich dabei um eine Wahrheit.

Datenbestand fragwürdig?

Wo haben die “Akademiker” ihre Daten eigentlich her? Sie haben sie nicht etwa selbst erhoben, sondern sich bei Boxofficemojo.com bedient, einem kommerziellen Anbieter.

Zunächst einmal sei erwähnt, dass Boxofficemojo mittlerweile zwar international aufgestellt ist, doch immer noch vorwiegend die USA und Kanada auswertet. Abzulesen ist dies an folgendem Satz:

Außer wenn es nicht anders notiert wird, werden die Kinoumsätze für die USA und Kanada angegeben. Diese Information, und der Hinweis darauf, wie man an selbige kommt, sind online für jeden einsehbar. Wir können einerseits hoffen, dass Peukert und Claussen also für alle 1344 Filme über den Zeitraum, den sie ausgewertet haben, einen vergleichbaren Datensatz hatten, und nicht etwa für einige Filme in manchen Ländern Lücken vorhanden waren, die die Ergebnisse negativ beeinflussten.
Man ist geneigt zu sagen: Das sind Wissenschaftler, die werden schon wissen, was sie tun. Nur wenn man sich darauf verlässt, muss man sich nicht wundern, wenn irgendwann Veröffentlichungen erfolgen, die das Gegenteil behaupten und so gar nicht zu diesen Ergebnissen passen wollen.

Andererseits ist schon das Datenmaterial selbst höchst fragwürdig, akzeptiert es doch die Approximation.

“Calendar Grosses are based on daily box office receipts or, when daily data is not available, estimates are used and are based on weekend and weekly data and historical box office trends. In cases where a final reported gross is different from its last reported gross for a given movie, the difference is assigned to the two weeks after the last reported gross date. In most cases, this reflects receipts that have trickled in after a movie has stopped being tracked for reportage. Since box office has been more closely tracked in recent years, the calendar gross data is generally considered more comprehensive after 2001, while pre-2001 estimates are considered approximate. Accuracy of calendar grosses improves over a wider range of time viewed.”

Boxofficemojo

Wenn für einen Tag keine Daten vorliegen, werden “Näherungswerte” verwendet, die anhand von wöchentlichen Daten erzeugt werden, und “historischen Trends”. Kommt es zu Unterschieden mit später veröffentlichten Abschlussreports, wird die Differenz auf die zwei Wochen umgelegt, nach denen der letzte Report eingegangen ist.
Interessant ist die Aussage, dass Daten der Kinobetreiber aus den Anfängen von Boxofficemojo nicht ausführlich verfolgt wurden, und es sich lediglich um Näherungswerte handele. Für die Zeit “nach” 2001 seien die Daten aber “umfangreicher” (more comprehensive). Die Zuverlässigkeit der beobachteten Daten würde umso genauer, je größer der Zeitraum ist, den man betrachtet, heißt es dann noch. Wenn man noch außer Acht lässt, dass vielleicht falsche oder geschönte Daten von den Kinobetreibern weitergegeben werden, und dass man nicht weiß, von wie viel Prozent der Kinobetreiber überhaupt Daten vorliegen, dann fragt man sich, warum Wissenschaftler überhaupt versuchen anhand eines solchen Datenmaterials Untersuchungen anzustellen.

Bloggermärchen?

In meiner Wahl der Überschrift bin ich deshalb zum Bloggermärchen gekommen, da neben den bereits verlinkten Schreibern zum Beispiel auch “The Next Web” diese Aussage unhinterfragt übernommen hat. Einzig Mike Epstein von den Kollegen von Geekosystem merkt an, dass der Zusammenhang, der konstruiert wird, lose ist, und viele Dinge außer Acht lässt. Denn Kino als solches steht nicht dafür in den letzten Jahren immer mehr Zuschauer angelockt zu haben, sondern muss damit leben, dass sich Zuschauer schon seit geraumer Zeit anderen Unterhaltungsformen zuwenden. Es könnte also genauso gut gar nichts mit Megaupload zu tun haben. Das wird aber verschwiegen.

Letztlich ist der Wert der Studie (des Quasi-Experiments) von Peukert und Claussen mit Skepsis zu betrachten. Nicht, weil ich nicht denke, dass sie in der Behauptung, dass Filesharing per se einen Netzwerk-Effekt ausübt, vielleicht sogar Recht haben, sondern weil ihre Argumentation der Sache absolut nicht hilfreich ist.

 Und wie ist deine Meinung?  Schreib uns einfach!

 14 Kommentar(e) bisher

  •  rt sagte am 26. November 2012:

    Endlich mal kein Paste&Copy ….THX für die Info

    Antworten 
  •  Constantin sagte am 26. November 2012:

    “Letztlich ist der Wert der Studie [...] mit Skespsis (sic!) zu betrachten [...] weil ihre Argumentation der Sache absolut nicht hilfreich ist.”

    Natürlich ist die Argumentation der Sache hilfreich. Selbst wenn die Datenbasis suboptimal ist, sind es überhaupt mal Daten. Das Problem in der Diskussion um Filesharing ist doch nicht der Mangel an Meinung (so wie dieser Artikel), Theorien und mehr oder weniger plausiblen Argumentationsketten, sondern vielmehr dass die Film- und Musikindustrie keine Daten veröffentlicht sondern immer nur mit Luftschlössern und Milchmädchenrechnungen argumentiert.
    Das Schöne an Wissenschaft ist doch gerade, dass durch Veröffentlichung der Methodik jeder nachvollziehen kann wie das Ergebnis zustande gekommen ist und es mit anderen (besseren?) Daten reproduzieren kann.
    Und eine Studie, egal wie deren Qualität ist, schafft nie Fakten. Erst durch Wiederholung der Studie und nicht eintretender Falsifizierung der Ergebnisse kann man von Tatsachen ausgehen.

    Wenn ihr an der Studie Zweifel habt, dann besorgt euch bessere Daten und macht es nach. Die Argumente in diesem Artikel sind jedoch noch nicht einmal auf mittelmäßigen Daten aufgebaut und somit vollständig für die Katz.

    Antworten 
    •  at sagte am 26. November 2012:

      @Constantin: Oh schön, du hast in einem Artikel mit 1400 Wörtern einen Buchstabendreher gefunden. Meinen Respekt hast du sicher.

      Zuerst ist es nicht egal, welches Datenmaterial man verwendet. Schlechte Daten werden notgedrungen zu falschen Aussagen führen.

      Die angesprochene “Studie” ist von ihren Urhebern “selbst” (nicht von mir) als Quasi-Experiment bezeichnet worden. Das ist ein Terminus technicus, den ich oben erläutert habe. Diese Studie kann deshalb nicht falsifiziert werden, weil jeder, der die Versuchsanordnung so durchführt “immer” zu den gleichen Ergebnissen kommen wird. Das liegt an der Natur dieser speziellen Versuchsanordnung, die “künstlich” einen Zusammenhang herstellt. Jeder kann dir alles daraus ablesen, was er möchte. Je nachdem wie man die Daten ins Verhältnis setzt und welche Zusammenhänge man herstellt, kann man sogar aus denselben Daten je unterschiedliche Aussagen produzieren, das haben diese toten Daten so an sich, die nicht im Rahmen von echten Experimenten gesammelt wurden. Allenfalls könnte man Mängel bei der Durchführung attestieren (was ich nicht tue). Nur das würde NIE (=== zu keiner Zeit) andere Ergebnisse erzeugen. Fakt ist, dass diese “Studie” eine Qualität von Studien eines Professor Pfeiffer hat. Weil der macht dir auch aus toten Daten lebendige Zusammenhänge, nur haben diese, weil sie nicht in randomisierten Versuchsanordnungen wieder und wieder aufs Neue bestätigt werden können, wenig Aussagekraft.

      Man kann solche Ergebnisse formulieren, und sogar “Glück” haben, dass die Zusammenhänge auch auf diese Art bestehen. Das meinte ich am Ende als ich schrieb, ich glaube durchaus, dass Filesharing einen Netzwerk-Effekt hat.

      Über den Wert solche Studien hat man mich innerhalb des Grundstudiums der Sozialwissenschaften aufgeklärt. Schade ist nur, dass die angebrachte Skepsis von den Urhebern selbst nicht vorgelebt wird. Sie müssten selbst diejenigen sein, die nicht zu viele Hoffnungen wecken, sondern vor allem ihre Ergebnisse in Mega-Anführungszeichen setzen.

      Wenn du ernsthaft solche Behauptungen belegen willst, musst du “echte” Experimente durchführen und wirst dir riesige Versuchsgruppen suchen müssen und sie befragen, auf ihre Kinogewohnheiten, wie viel Geld sie dafür ausgeben, ob sie Megaupload kennen oder genutzt haben, usf. Erst wenn du dabei zu unterschiedlichen Zeiten mit unterschiedlichen Versuchs- und Kontrollgruppen den “jetzt künstlich hergestellten Zusammenhang” bestätigen würdest, könntest du auch solche Aussagen formulieren.

      Ich verstehe nicht, warum du hier Porzellan zerschlagen willst, das dir nicht mal gehört. Hat dir jemand dein Spielzeug weggenommen?

      Antworten 
      •  gustav sagte am 26. November 2012:

        @at:
        Ein Semi- oder Quasi-Experiment ist eine experimentele Versuchsanordnung mit Intervention, Kontrollgruppe, aber ohne Randomisierung/Matching. Das heißt nur, dass die gewonnen Daten nicht als repräsentativ für eine Grundgesamtheit betrachtet werden können; ier von “toten Daten”, die “nicht falsifizierbar” seinen zu sprechen halte ich schlicht für falsch.
        Die Autoren schreiben im Abstract:
        “We find that the shutdown had a negative, yet insignificant effect on box office revenues.” (sh. Link im Artikel)
        Auf Deutsch: Sie haben nichts gefunden. Warum die Aufregung?

        Antworten 
        •  at sagte am 27. November 2012:

          @gustav: Das war gar nicht die Absicht. Weil du vielleicht nicht herausgelesen hast, dass Gott und die Welt so getan hat, dass sie was gefunden hätten. Die verlinkten Quellen (Blogs, Süddeutsche, Futurezone) schreiben allesamt, dass dort etwas sei, was da nicht ist. Alles was dort gemacht wurde, ist einen artifiziellen Zusammenhang herzustellen, zwischen toten Daten. Ich sage deshalb tot, weil die Daten sind nicht mal valide, geschweige denn unter Versuchsbedingungen zustande gekommen. Irgendein Internetdienstleister lässt sich von Kinobetreibern Umsatzdaten geben. Es ist sehr schwer, da überhaupt auch auf Personen zu schließen, wenn man nicht bis ins Detail nachvollziehen kann, wie viele Kinokarten überhaupt davon gekauft wurden. Und da es weder in den USA, noch in Übersee Kinos mit Geschlechter-, Alters-, Religiositäts- etc. -Kontrolle gibt, weiß doch sogar niemand, wer die Menschen alle sein sollen, die die Umsätze erzielt haben. Es gibt viel zu viele andere Effekte, die einem einleuchten, die Schuld dran sein könnten.

          Die Leute an der LMU und an der Kopenhagen Business School konnten mit den toten Daten doch nicht mal nachweisen, ob die Leute, die ins Kino gegangen sind überhaupt Nutzer von Megaupload waren, oder ob sie Bekannte von Nutzern von Megaupload waren. Weil ohne Befragung und/oder Wissen aus Netzwerken, kann man diese Zuordnung nicht vornehmen. Entsprechend ist das Ganze ein Witz.

          Die Akademiker, das hab ich ja bereits in der Einleitung geschrieben, formulieren “dezent”… nur deshalb ist der Artikel eben mit “Bloggermärchen” überschrieben, weil super viele Techblogs das einfach für bare Münze nehmen. Und den Wissenschaftlern werfe ich vor, dass sie es absichtlich so lanciert haben. Sie hätten ihre Einschränkungen nicht im Konjunktiv und in Klammern setzen, sondern vorab klar machen sollen, dass die Tragweite nicht dazu taugt. Aber dann hätte man ja nicht diese Aufmerksamkeit erhalten. Schließlich geht es auch ums Prestige und darum, die Institute bekannter zu machen.

          Antworten 
  •  Christian sagte am 26. November 2012:

    Wer hier wohl wem das Spielzeug weggenommen hat …

    Antworten 
  •  Chris sagte am 26. November 2012:

    Sehr guter Artikel – und interessantes Thema.
    Selten ist es unter den zahlreichen “News-Portalen” geworden, dass mal kein Einheitsbrei versendet wird. Und deshalb ist es um so interessanter für jeden Leser (also für uns) auch einmal Inhalte und Sachverhalte aus einer Sicht reflektiert zu bekommen, die nicht dem allgemeinen Strom blind folgt.

    Antworten 
  •  XPert sagte am 26. November 2012:

    Sehr interessanter Artikel, Glückwunsch dazu. Bin allerdings ein wenig schockiert von dem Aufsatz. Eine wissenschaftlich korrekte Arbeit zu diesem Thema zu erstellen halte ich für sehr gewagt bis unmöglich. Die Quellenangaben, das hast du ja schon unterstrichen, sind nicht belastbar und entsprechend völlig ungeeignet. Desweiteren befindet man sich in einer rechtlichen Grauzone, verlässiche Umfragewerte würde man nur äußerst schwierig bekommen können.. Immerhin bezeichnet man es als “Quasi-Studie”, der wissenschaftliche Wert ist allerdings, so scheint es mir, bei Null. Schockierend eigentlich, dass so etwas an einer deutschen Top Universität veröffentlicht wird..

    Antworten 
  •  Mirko Schröder sagte am 26. November 2012:

    @Constantin: da fällt mir ja nicht mehr viel zu ein! Du glaubst (Auszügen) einer Studie, die mit Eigenaussagen arbeitet “…most popular file hosting services worldwide (self-reportedly)…” mehr, als einer kritischen Auseinandersetzung damit ??
    Man man man, kann mal jemand dem Jungen den Computer wegnehmen!
    @macnotes: danke für kritisches Hinschauen.
    Leider muss man aber sagen, das die meisten Studien zum Ende hin ein wenig “frisiert” werden, um ein greifbares Ergebnis vorweisen zu können.
    Denn, sind wir ehrlich: wie blöd kommt das denn rüber, wenn man Monate lange forscht und schreibt, und dann nur sagen kann: “Ääähhh, … tja, eigentlich wie vorher.”

    Antworten 
  •  Fabian sagte am 26. November 2012:

    Und es geht eigentlich noch besser.
    Die “Studie” soll ja die Auswirkungen von Megaupload auf das Besucherverhalten zeigen. Das lässt sich nur über die Besucherzahl machen, die Macher haben sich aber augenscheinlich für den Umsatz als relevantes Kriterium entschieden.
    Könnte man machen, wenn sich die Eintrittspreise in den untersuchten Ländern in den letzten 5 Jahren nicht verändert hätten. Das ist unwahrscheinlich und gerade bei den Blockbustern wurde in den letzten Jahren durch den 3D Boom und entsprechenden Zuschlägen deutlich an der Preisschraube gedreht. Über die Besucherzahlen und Akzeptanz des Kinos kann man so keine auch nur im Ansatz belastbaren Erkenntnisse gewinnen.

    Antworten 
  •  Lelala sagte am 28. November 2012:

    Gabs nicht eine ähnliche Studie bereits vor zwei Jahren, in denen dargelegt wurde, dass Filesharer mehr Musik kaufen als Standardkonsumenten, und dies obwohl sie Files sharen?
    Grüße

    Antworten 
    •  at sagte am 28. November 2012:

      Es gibt immer mal wieder Studien, auch solche, über die nie berichtet wird, die die Situation beleuchten. Solche Dinge sind schnell in der Öffentlichkeit. Das Problem ist, sind die Erkenntnisse belastbar. Ich selbst habe erst in diesem Jahr von so einer ähnlichen Studie geschrieben, wie du es erwähnst, aber man muss mit so etwas vorsichtig sein. Nur weil es einer Partei nutzt, ist es noch nicht gut. Man muss so fair und ehrlich sein, dass man Aussagen positiv wie negativ gleichsam kritisch beäugt. Wenn man die “guten” immer betont und die “schlechten” Studien aber immer unter den Tisch fallen lässt, hat man nix gewonnen, sondern macht sich nur was vor.

      Antworten 
  •  Gustav sagte am 29. November 2012:

    Ja, ich muss dir leider recht geben. Die Story wird mittlerweile von vielen “qualitäts”medien unhinterfragt übernommen, die Autoren scheinen nicht sehr bemüht, das zu relativieren. Ob die dadurch gewonnene Aufmerksamkeit, basierend auf kaum validen Daten, in denen sie eig. nichts gefunden haben, ihrer Karriere wirklich förderlich ist, ist eine andere Frage.

    Antworten 
  •  g.h. sagte am 12. Januar 2013:

    Ich glaube der Grund, warum viele Leute diese Meinungen kritisieren, ist letztendlich, dass es bei diesem Thema auf beiden Seiten eine Vermischung zwischen Aktionismus und echter Faktenfindung gibt.

    Auf der einen Seite stehen Unternehmen, Verwerter und Wirtschaftstreibende mit ihren Lobby-Unternehmen, auf der anderen Seite einige wenige Akademiker, die, wenn sie sich mit dem Thema beschäftigen, ihre wirtschaftliche Existenz aufs Spiel setzen. Trotzdem gibt es immer wieder unabhängige Studien – die allerdings entweder nur ein sehr enges Gebiet umfassen (wie die LSI-Studie) oder zu allgemein sind bzw. an der Datenfindung scheitern.

    Und hier kommt das Problem, dass ich mit deinem Artikel habe: es kommt für mich nicht ausreichend heraus, dass die gegenteilige Aussage – nämlich dass ein direkter Zusammenhang zwischen Downloads und Umsatzrückgang in der Unterhaltungsbranche besteht – keinesfalls in irgendeiner Weise mit unabhängigen Daten oder Studien (nicht jene von Lobby-Institutionen oder Beteiligten) belegt sind. Als Beispiel: schon allein der fiktive Streitwert – sprich Schaden – ist mehr als fragwürdig. Trotzdem werden aufgrund dieser Annahme Gesetze verabschiedet, die gelinde gesagt problematisch für den Rechtsstaat sind und damit weit über das Ziel hinausschießen…

    Ds Ganze ist tragikomisch und wer einen Einblick in die Rechenkünste der Verwerter haben möchte, muss sich nur diesen TED-Talk anschauen: http://www.youtube.com/watch?v=GZadCj8O1-0

    Antworten 

Kommentar verfassen

Werbung
© 2006-2013 MACNOTES.DE. Made with insanely great for all things Mac. Apple.de