Digitalisierung und wissenschaftliches Denken – Neue Herausforderungen an die akademische Jugend?
Es ist ein Satz, der zum Nachdenken zwingt, kein so einfach daher gesagter Satz, weil aus fühlbarer Verzweifelung, gar aus blanker Frustration gesprochen: “Es ist fürchterlich: Meine Assistenten sind nicht mehr in der Lage, zentrale von nebensächlichen, primäre von sekundären oder aktuelle von überholten Quellen zu unterscheiden, wenn sie ihre Manuskripte verfassen.” Dieser Satz stammt von einem, der die akademische Lehre ebenso liebt wie er das Internet beherrscht, zudem von einem, der zu den eher angesehenen, zu den etablierten der juristischen Branche seit vielen Jahren gehört.
Kaum möglich, diesen Satz mit der Bemerkung wegzuwischen, dass hier eben schlechte Personalpolitik betrieben worden sei; denn Lehrstuhl und auch angeschlossenes Institut haben über die Jahre mehr und mehr reichlich Anerkennung und Reputation erworben. Also auf diese Ebene lässt sich eine den Wissenschaftler frustrierende Aussage nicht herabbrechen – so nach dem einfach gestrickten Motto: selber schuld und bessere Personalpolitik!
Doch genau dieser eingangs zitierte Satz – und dies ist wirklich des Nachdenkens wert – findet sich höchst prominent und als Ergebnis wissenschaftlicher Studien. Allerdings steht er im Kontext zeitgeschichtlicher, indes höchst lesenswerter Betrachtungen, stammend aus der Feder des Mainzer Historikers Andreas Rödder (“21.0: Eine kurze Geschichte der Gegenwart”). Sein Satz versteht sich – ganz grundsätzlich formuliert – als Ausweis der das moderne Denken neu prägenden, rasant um sich greifenden Digitalisierung. Es ist, so sagt uns Andreas Rödder, mittlerweile eine grundlegende Änderung der tradierten Denkmuster bei uns Heutigen zu erkennen. Vor allem aber bei den heranwachsenden “digital natives” breitet sich dieses neue Denken aus, obwohl der Hirnforscher Manfred Spitzer schon vor Jahren uns Ältere vor den Gefahren der “digitalen Demenz” gewarnt hatte und auch davor, dass wir unsere Kinder durch den ständigen Gebrauch von Smartphones, Tablets, Internet und Handys “um den Verstand bringen”.
Denn das Internet, so wieder Rödder, führt zu einer “flächigen Vernetzung” der Gedanken; immer steht ein “link” oder ein “hyperlink” bereit, der die begonnenen Gedanken leichtfüßig verbreitern hilft. Es sind inzwischen ganz und gar “lineare” Denkmuster, die die Heranwachsenden beherrschen, nicht mehr aber “hierarchische Kategorien” des Denkens, die bislang unser Lesen, Lernen und auch das Forschen dominierten. Anerzogene und mühsam erarbeitete Denkmuster eben, “wie sie die Moderne seit der Aufklärung und die traditionelle Logik prägen”.
“Flächige Vernetzung”, die uns jetzt das Internet beschert, steht aber, so Rödder weiter, “im Gegensatz zu linearen und hierarchischen Kategorien des Denkens”. Ihre Merkmale waren bislang wohl begründet und regierten wissenschaftliches Denken: “Logische Hierarchisierung und Priorisierung, Ursache und Folge, Kausalität und Genealogie.” Und eben auch das Unterscheiden von wichtigen und unwichtigeren Quellen für das jeweils zu belegende Ergebnis, nicht aber ihr gleichsam kaleidoskopartiges, weithin undifferenziertes, flächendeckendes Erfassen, das nur Nebensächliche ebenso eingeschlossen wie das Wichtige.
Es ist, so lässt uns Rödder im Blick auf die rasant sich ausbreitende Digitalisierung aller Lebensbereiche schließlich wissen, eine “beschleunigte Reise ins Ungewisse”, die wir als letzte Generation im Schnittfeld von analoger und virtueller Welt mittlerweile angetreten haben. Und sie wird wahrscheinlich, anknüpfend an den eingangs zitierten Satz des frustrierten akademischen Lehrers, auch noch so mancherlei weitere Friktionen in juristischem Verständnis und wissenschaftlichen Denken nach sich ziehen, bevor sich in der Bewährung erweist, nach welchen neuen Regeln und Methoden denn verlässliches juristisches Argumentieren – entgegen dem brutalen Sog des vernetzten Internets und seiner uns weithin aufgezwungenen linearen Denkmuster – für die akademische Jugend und letztlich auch von ihr selbst künftig zu gestalten ist.
Doch es könnte sein, dass der eingangs zitierte Satz quer steht zu den hier mit ihm gekoppelten Sentenzen. Vielleicht ist es aber auch so, dass man die bereits zitierte Grundaussage des Hirnforschers Manfred Spitzer sogar hinzusetzen muss, der von der “Digitalen Demenz” spricht. Das mag, wenn man so will, ein wenig übertrieben klingen; und manch einer mag einwenden, dass der spitzzüngige Satz des akademischen Lehrers wohl schwerlich mit den eher dem Kulturpessimismus verpflichteten Aussagen des Buches von Spitzer in Einklang zu bringen ist. Mag sein. Der Praxistest steht ja noch aus, wenn unsere Gesellschaft sich – demographisch bedingt – eines nicht mehr allzu fernen Tages nur noch aus Menschen zusammensetzt, für die die Off-line-Welt eine bereits abgeschlossene Geschichte ist, weil sie als “digital natives” ins Leben getreten sind.
Dann ist das von Medienwissenschaftlern uns mitgeteilte Wort vielleicht schon eher geeignet, den Satz des Professors als zutreffend zu bekräftigen. Sie sprechen nämlich vom “Bulemie-Lernen” als dem prägenden Merkmal der Generation der “digital natives”: Fressen, ausspucken und vergessen. Es ist demnach wohl die Oberflächlichkeit des Denkens, die sich für uns Ältere zusehends auszubreiten beginnt, weil das Wiederentdecken – nach dem Vergessen – eben nur einen Klick weit entfernt und jederzeit erreichbar ist. Es wäre dann eben nicht mehr das mühsam selbst Erarbeitete und Erlernte, die sich erst langsam herausbildende Unterscheidung von Verworfenem und Wichtigem als die entscheidenden, unverwechselbaren Merkmale wissenschaftlich diskursiven Denkens.
Prof. Dr. Friedrich Graf von Westphalen, RA und Namensgeber der Kanzlei Friedrich Graf von Westphalen & Partner, Köln, Frankfurt, Freiburg, Alicante, Brüssel. Seit 1998 Lehrbeauftragter, seit 2004 Honorarprofessor der Universität Bielefeld. Mitglied des Herausgeberbeirats von ZIP, EWiR sowie im Beirat des BB. Vorsitzender des Ausschusses “Europäisches Zivilrecht” beim CCBE.