Permalink

13

Das leise Weinen Spencer Browns…

gsb

Im Jahr 1969 publizierte der britische Mathematiker George Spencer Brown seine ›Laws of Form‹. Auf den Kalkül, der außerhalb systemtheoretisch-konstruktivistisch informierter Kreise bis heute nahezu unbekannt ist, ist in diesem Blog schon häufiger Bezug genommen worden. Aktueller Anlass ist folgender: die gleichermaßen präzise wie eigenwillige Notation der ›Laws of Form‹ lässt sich nicht ohne Weiteres in den standardisierten Zeichensatz gängiger Textverarbeitungsprogramme übertragen; dies gilt folglich auch für Text im Internet. Seit geraumer Zeit wird dennoch nach einer Möglichkeit gesucht, Spencer Browns ›mark of distinction‹ – die visuelle Metapher für die Operation des Unterscheidens und Bezeichnens – ohne Rückgriff auf Grafiken im Fließtext nutzen zu können.

 

Arbitrarität

In seinem Kalkül betont Spencer Brown die Arbitrarität des Zeichens. Im Prozess der Zeichenbildung lässt der Autor seinem Leser zunächst freie Wahl: »Lass jegliche Markierung, jegliches Token oder Zeichen zusammen mit der, oder in Bezug auf die Unterscheidung als ein Signal aufgefasst werden« – eine pragmatische Definition. Das Zeichen selbst ist austauschbar, sein Gebrauchszweck oder Sinn hingegen nicht: »Lass den Zweck eines Signals auf dessen erlaubte Verwendung beschränkt sein. […] Im allgemeinen: Was nicht erlaubt ist, ist verboten.«1
Das Zeichen erhält die gewünschte Signalfunktion durch seinen Gebrauch bzw. in seiner Anwendung, als Anweisung zum Treffen einer Unterscheidung. Es markiert einen durch Unterscheidung geteilten Raum bzw. Zustand. Nicht mehr, aber auch nicht weniger.

 

An-Wendung

Grundsätzlich kann dabei jedes optische oder akustische Zeichen als Signal dienen. Spencer Brown selbst wählt in der Folge ein ebenso neues wie überzeugendes Symbol, in Form eines Hakens: das ›cross‹ oder ›mark of distinction‹. Zwar verweist er auf alternative Möglichkeiten der Symbolisierung (etwa durch das Zeichnen von Kreisen auf einem Blatt Papier), der Haken vereint aber als Zeichen seiner Wahl die grundlegenden Operationen der Unterscheidung (senkrechter Strich) und Anzeige (horizontaler Zeiger) ebenso intuitiv einleuchtend wie formschön:

In Texteditoren oder Webapplikationen lässt sich Spencer Browns ›mark of distinction‹ in dieser einfachen Form problemlos verwenden2, komplexe Gleichungen oder re-entrante Formen lassen sich so ohne Weiteres aber nicht abbilden. Der Haken lässt sich nicht beschriften und folglich muss der Zeichensatz erweitert werden.
Für längere Texte kann der geneigte Schreiber auf eingebundene Grafiken oder ambitioniertere Textsatzprogramme ausweichen. Auf Twitter und unter Berücksichtigung des dort geltenden Zeichenlimits stellt sich die Frage der Notation dringlicher. Zugegeben: das betrifft kaum mehr als eine Handvoll potentieller Nutzer, aber das ändert nichts am Problem als solchem. Nicht zufällig entspann sich in den vergangenen Tagen (einmal mehr) die Diskussion über die Darstellbarkeit der Spencer Brown’schen Notation unter den spezifischen Bedingungen der Nutzung des Kurznachrichtendienstes.
Zweite Einschränkung: Auf die Einbindung von Grafikdateien solle verzichtet werden.

 

Asymmetrie

Lässt sich eine allgemeine und verständliche Adaption der Spencer Brown’schen Notation für diesen konkreten Anwendungsfall (er-)finden? Verschiedene Vorschläge wurden unterbreitet und diskutiert, erweitert oder verworfen. Keiner von ihnen scheint den allgemeinen Anforderungen an eine webkompatible Zeichensprache im Geiste der ›Laws of Form‹ zu genügen.

Aber muss das überhaupt der Fall sein?

So verständlich der Wunsch nach Standardisierung und Präzision sein mag (nicht zuletzt geht es hierbei ja auch um die Erhöhung der Wahrscheinlichkeit verstehender Lektüre), die Suche nach der richtigen, besten oder gültigen Notation muss verwundern. Zumindest ein wenig. Sie ignoriert nämlich das, wofür Spencer Brown in seinem Kalkül an vorderster Stelle sensibilisieren wollte: den ontogenetischen, konstruktiven Charakter des Unterscheidungsprozesses – oder kurz: den Beobachter. Er ist es, der die Unterscheidung trifft, sogar vom Autor höchstselbst in dessen berühmten Diktum (»Triff eine Unterscheidung«) direkt dazu ermutigt wird. Der Beobachter ist es, der die Unterscheidung mit einer Wertigkeit versieht und folglich für ihr Treffen verantwortlich ist: er zieht die Grenze, asymmetriert, teilt den Raum: »Es kann keine Unterscheidung geben ohne Motiv, und es kann kein Motiv geben, wenn nicht Inhalte als unterschiedlich im Wert angesehen werden.«3
Ohne Motivation des Beobachters keine Wertigkeit, ohne Wertigkeit keine Unterscheidung.

 

Triff eine Entscheidung!

Die Suche nach objektiven, verbindlichen Regeln der Notation oder ihrer Bestätigung durch Autorität ignoriert die jedem Konstruktivismus inhärente Verantwortung des Beobachters; sie widerspricht damit auch dem ethischen (und latent anarchischen) Kern der ›Laws of Form‹. Der Rat ihres Autors wäre vermutlich Folgender: »Triff eine Entscheidung! Schau, ob Deine Notation für Deinen Zweck funktioniert. Wenn sie nicht funktioniert, entscheide Dich neu.«4
Auch jenseits vermuteter Ratschläge lassen sich Indizien für eine solche Haltung finden; es gilt nämlich nicht zuletzt auch für die Notation, was Spencer Brown 1957 über Klassifikationen und Modelle schrieb: »[W]elche dieser Klassifikationen ist richtig und welche falsch? Richtig kann bloß diejenige Klassifikation sein, die am besten für einen gegebenen Zweck taugt: Wir klassifizieren so, wie es uns sinnvoll erscheint und überzeugen andere, das gleiche zu tun.«5 Man ersetze »Klassifikation« durch »Notation« bzw. »klassifizieren« durch »notieren« und dürfte eine deutliche Ermutigung zum (Er-)Finden der eigenen Schreibweise finden.

 

Postscriptum.

Es gibt keine ›Laws of Form‹-Polizei. Es gibt kein richtiges oder falsches Zeichen. Es gibt womöglich besser oder schlechter geeignete, mehr oder weniger viable. Das Urteil darüber berührt ästhetische, pragmatische und technische Gesichtspunkte. Gerade darum erscheint eine experimentelle Praxis wünschenswert – zumal alle Ergebnisse der Form nach ineinander übersetzbar bleiben werden.
Mein aktueller Favorit notiert sich übrigens wie folgt:

neugier

 Neugier = ╵╵╷ Unbekanntes ⎤ Bekanntes ]

  • ⎤ (U+23A4) markiert das einfache ›mark of distinction‹.
  • ] (U+FF3D) markiert einen re-entry, wobei die Reichweite des Hakens durch
  • ╵  (U+2575) bzw. im Falle des Wiedereintritts durch
  • ╷  (U+2577) markiert wird.

Edit: Für den nach rechts laufenden Re-Entry, auf den Moritz Klenk hinwies, muss ein weiteres Symbol ergänzt werden, das ich gestern zunächst unterschlagen habe:

  • ⎱ (U+23B1).

reentry

f = ╵╵m⎤╵n⎤⎱╵╵o⎤p╷⎤

Für Diskussionen über 140 Zeichen kann die Kommentarspalte sehr gerne genutzt werden.

Anmerkungen

  1. George Spencer Brown: Laws of Form, Lübeck, 2. Aufl. 1999, S. 3.
  2. »Right square bracket upper corner«, Unicode Code Point U+23A4.
  3. Spencer Brown: Laws of Form, S. 1.
  4. Oder in den Worten Heinz von Foersters: »Meine Lehre ist, […] dass man keine Lehre akzeptieren soll. Das ist natürlich ein Paradox, aber ein sehr dynamisches.« In: ders., Bernhard Pörksen: Wahrheit ist die Erfindung eines Lügners. Gespräche für Skeptiker, Heidelberg, 8. Aufl. 2008, S.163.
  5. Vgl. George Spencer Brown: Wahrscheinlichkeit und Wissenschaft, Heidelberg, 2. Aufl. 2008, S. 24.
Permalink

1

Rezension: Einführung in die eigenen Gedanken

Endlich ist Carl Auers »Einführung in die eigenen Gedanken« geschrieben worden! Der Leser hält damit die vielleicht radikalste Einführung in systemtheoretisches und konstruktivistisches Denken in den Händen, die bisher ihren Weg in die Veröffentlichung fand. Doch beginnen wir vorne. Sehr weit vorne sogar: am Anfang nämlich, im zeichenleeren Raum. Weiterlesen

Permalink

1

Sinn und Grenzüberschreitung. Zwei Lexikonartikel


Beim Schweizer Niggli-Verlag ist das «Lexikon zur zeitgenössischen Kunst. La réalité dépasse la fiction» erschienen, das vom Künstlerduo Com&Com (Marcus Gossolt und Johannes M. Hedinger) herausgegeben wird und ihm zugleich als Werkverzeichnis und künstlerische Retrospektive dient. Teil der Publikation: Ein umfangreicher Lexikonteil. Weiterlesen

Permalink

3

Selbstreferenz, Fremdreferenz und kauzige Irre

Gestern Abend hörte ich den Vortrag einen Mitschnitt des Vortrags »”Alteuropa” und “Der Soziologe” – Wie verhält sich Niklas Luhmanns Theorie zur philosophischen Tradition?« von Hans Ulrich Gumbrecht.¹

Gumbrecht entwickelt auf kurzweilige Art und Weise eine Skizze der Luhmann’schen Selbst- und Fremdreferenzen, die (wie sollte es anders sein?) in hohem Maße von der Beobachterposition des Vortragenden und seinen eigenen Unterscheidungen geprägt ist; diese Überlegungen ergeben dabei aber eine interessante Konstruktion: Gumbrechts Fremdreferenz auf Luhmanns Fremdreferenz, die nach Gumbrecht insgeheim eine (“schräge”) Selbstreferenz Luhmanns ist. Eine kurze Passage, in der Verweise auf andere Theoretiker in Luhmanns Werk thematisiert werden:

Etwas ähnliches geschieht drittens, wenn Luhmann andere Theorieautoren zitiert. Er zitiert ja andere Theorieautoren immer ohne weitere Einführung, so dass man als Leser permanent ein schlechtes Gewissen hat, weil man normalerweise diese Theorieautoren nicht kennt. Also er fängt dann an, sagt: “Spencer Brown sagt…” – Spencer Brown? Keine Ahnung. Aber der Fall ist eigentlich, dass Gotthard Günther, auf den Luhmann immer wieder kanonisch verweist als den Erfinder der dreiwertigen Logik, also auf Nachfrage bei meinen philosophischen Kollegen keinerlei Rolle in der Geschichte der Logik des 20. Jahrhunderts spielt. Dass Humberto Maturana, “der große Biologe der Vision” in Luhmanns Büchern, also ganz bestimmt kein Kandidat für einen naturwissenschaftlichen Nobelpreis je war, nicht einmal für einen chilenischen Nationalpreis. Dass Fritz Heider, auf den Luhmann immer wieder verweist, einzig und allein der Autor eines einzigen Aufsatzes zum Begriff der Form, übrigens aus dem Jahr 1926, ist. Dass Heinz von Foerster ein sympathischer, kauziger, emeritierter Ingenieurswissenschaftler ist. Und ich möchte auch noch darauf hinweisen, dass meine Kollegen im Department of Mathematics in Stanford George Spencer Brown, und ich übertreibe nicht, mit Verlaub für einen armen Irren halten. Für einen armen Irren der Mathematik. Obwohl ich gehört habe, dass alle Soziologieinstitute in Deutschland, die auf sich halten, mindestens einen Spencer Brown-Spezialisten bezahlen.

So fragt man sich also am Ende, ob nicht all diese Fremdreferenzen auf vermeintliche Theorieautoritäten Permutationen des Namens Niklas Luhmann sind.

Der Vortrag ist ebenso unterhaltsam wie empfehlenswert (allein unter humoristischen Gesichtspunkten). Ansonsten gilt: Alles nicht zu ernst nehmen.


¹ In: Stephan Krass (Hg.): Niklas Luhmann — Beobachtungen der Moderne. CD in der Reihe “Freiburger Reden—Denker auf der Bühne.” Edition SWR2. Heidelberg (Carl-Auer-Systeme Verlag) 2000.

Permalink

1

#Giesecke

Michael Giesecke präsentiert unter der Überschrift „Abhängigkeiten und Gegenabhängigkeiten der Informationsgesellschaft von der Buchkultur“ ein von der Sozialpsychologie inspiriertes und mediengeschichtlich interpretiertes Phasenmodell des Generationswechsels. Dabei arbeitet er unter Rückgriff auf gruppendynamische Forschung drei Phasen heraus, für die er im folgenden eine Geltung sowohl bei der Beschreibung menschlicher Sozialisationsprozesse als auch für die Entwicklung neuer Kommunikationstechnologien beansprucht: Ablösung, Gegenabhängigkeit und Autonomie. Weiterlesen

Permalink

1

#Wissen0.1

„Laß es mich nochmals sagen: Überhaupt nichts kann durch Erzählen gewußt werden.“ George Spencer Brown¹

difference

Aus der letzten Sitzung im Rahmen des „Knowledge Formation„-Seminars entwickelte sich zunächst eine Diskussion, aus dieser ein provisorischer Blog-Eintrag, hieraus wiederum eine virtuelle Anschlussdiskussion und an diese soll hier angeschlossen werden. Die (laufende) Diskussion problematisiert zwar primär Fragen der Voraussetzungen formaler Logik, daran knüpft m.E. aber unmittelbar die Frage nach der Konstruktion von Wissen an, die ja auch Leitfrage des Seminars sein soll. Aus diesem Grund scheint mir eine erste Skizze unter dem Titel #Wissen0.1 angebracht.

Mein Kommentar begann wie folgt:

Eine klassische Annahme zu Beginn eines Kalküls lautet etwa „Es sei…“. DAS ist die erste Unterscheidung, die aber durch Formalsprache („Metasprache“?) verschleiert wird. Annahmen sind Unterstellungen von Tatsächlichkeit – dabei sind doch eigentlich die Mathematik und Logik Musterbeispiele für die Tatsache, dass Erkenntnis immer aktive Konstruktion ist! Wir gehen immer von unseren Entscheidungen aus, legen mit Definitionen und Axiomen den Rahmen fest, folgen uns selbst auferlegten Regeln und Gesetzen.

Soweit zur Logik. Eine Formulierung wie „Es sei…“ oktroyiert dem Leser einen Sachverhalt, den er glauben, auswendig lernen oder zurückweisen kann. Wissen dagegen benötigt eigene Erfahrung, sonst bleibt es bloße Meinung oder Glaube.² Zwar können wir nach vielen (erfolgreichen) An-Wendungen mathematischer Regeln dazu verleitet werden, von einer „Gewißheit“ zu sprechen – vergessen dann aber die uns zugemuteten Anweisungen, die am Anfang standen. Wir kennen Regeln, wir befolgen sie, erkennen ein „Schach matt“; aber immer nur im Rahmen des vorkonstruierten Regelwerks, ohne das es das Schachspiel schlicht und einfach nicht gäbe. Wissen ist Beobachtungsleistung und immer systemspezifisch.

Helmut Willke charakterisiert Wissen als „die Veredelung von Information durch Praxis. Jedes Wissen setzt Praxis voraus.“³ Also gilt (und mit dieser Rückbindung an den Ausgangspunkt soll diese erste Skizze beendet sein) für das #Logik-Dilemma: Unsere jahre-, manchmal jahrzehntelange Praxis suggeriert uns Wissen. Es erweist sich als praktisch und viabel; wir sollten aber bereit sein zuzugeben, dass wir nicht mit Tatsachen operieren, sondern mit selbstgeschaffenen Regelsystemen. Analoges gilt übrigens auch immer für Sprache .

Und am Horizont winkt Gödel.


¹ SPENCER BROWN, George: Laws of Form. Gesetze der Form, Lübeck ²1999, S. XII.

² GLASERSFELD wies in einem bereits hier angeführten Zitat auf diesen Umstand hin: “Wissenschaftliche und religiöse Redeweisen ähneln sich darüber hinaus vielfach auch darin, dass sie beide meinen, absolutes Wissen zu vermitteln.“ Vgl. ders.: Die Gewissheit der Ungewissheit. Gespräche zum Konstruktivismus, Heidelberg ²2008, S. 49.

³ WILKE, Helmut: Einführung in das systemische Wissensmanagement, Heidelberg 2004, S. 28.

Die Grafik basiert auf einem Foto des flickr-Users Whole Wheat Toast und unterliegt folgender CC-Lizenz. Danke!

Permalink

0

„Hello world“ – esoterisch…

… oder in fünf Schritten von Räucherstäbchen zu nicht-trivialen Maschinen.

„Esoterik“ ist für gewöhnlich ein Wort, dass müdes Abwinken oder Fluch(t)reflexe bei mir hervorruft. Umso überraschter war ich, als ich vorhin über den Wikipedia-Artikel zu „Piet“ stolperte – eine sogenannte „esoterische Programmiersprache“. Und weiterlas…

Nun bedeutet εσωτερική (esōterikós) zunächst nicht mehr als „innerlich“ und hat folglich noch nicht viel mit Mystik oder Spiritualität zu tun. Vielmehr bezog sich der Begriff in der Geistesgeschichte auf Formen des Wissens, die im Gegensatz zum öffentlichen (exoterischen) Gedankengut nur einem kleinen Teil von Eingeweihten zugänglich war; somit kann für die Form des Wissens eine Unterscheidung zwischen innen und außen, zwischen eso- und exoterischem Wissen getroffen werden. Unterscheidung ist dabei immer notwenig eine Form mit zwei Seiten, wobei eine der beiden Seiten angezeigt wird („esoterisch!“). Die Einheit von Unterscheidung und Anzeige nennen wir Beobachtung. Werfen wir also einen Blick auf esoterische Programmiersprachen:

Im Gegensatz zu praktischen und für den alltäglichen Einsatz konzipierten Programmiersprachen folgt in diesen Fällen die Form nicht der Funktion. Hacker, Informatiker, Code-Poeten und Computer-Ästhetiker testen die Grenzen von Sprache und Design aus, praktische Anwendbarkeit („usability“) tritt in den Hintergrund. Es werden bespielsweise sogenannte „nicht-deterministische Sprachen“ genutzt; diese machen es unmöglich, vom aktuellen Stand des Programms aus einen Folgezustand zu antizipieren. Das Konzept erinnert an Heinz von Foersters nicht-triviale Maschinen. Dass Zufälligkeit für Computerprogramme nur schwer marktfähig ist, ist leicht einzusehen. Ihre Bedeutung liegt eher im Kontext der Designentwicklung von Sprachen oder Systemen; Gesichtspunkte, unter denen sie insbesondere in Forschung und Lehre zum Einsatz kommen.

Die Abbildung zeigt übrigens das berühmte „Hello World“-Programm in der oben schon erwähnten esoterischen Programmiersprache Piet. Der Name ist eine Reminiszenz an den niederländischen Künstler Piet Mondrian, einen Pionier der abstrakten Kunst. Die kleinste semantische Einheit der Sprache sind sogenannte „Codels“, ein Kompositum auf Basis von „Code“ und „Pixel“ – grafische Beispiele finden sich auf der Homepage des Piet-Erfinders David Morgan-Mar.

Das alles hat nichts von Transzendenz oder Räucherstäbchen. Wir können beruhigt sein.

Permalink

0

Einheit einer Differenz 1

Es ließe sich wesentlich mehr zu symbolisch generalisierten Kommunikationsmedien sagen. ((Luhmanns Theoriewerk läd dazu ein, sich zu verlieren.)) Zunächst soll es ausreichen, folgende Punkte festzuhalten:

  • Am Beispiel des Codes wird Luhmanns Faszination für die Mathematik George Spencer-Browns besonders deutlich: Die Einheit eines Codes wird durch seine Form gebildet, also Differenz.
  • Soziale Systeme sind Kommunikationssysteme. Sie reproduzieren sich und ihren Sinn durch Kommunikationen.
  • Medium und Form sind lose gekoppelt, wir betrachteten das Beispiel des Schachspiels oder das Zusammenspiel von Buchstaben, Worten, Sprachen (wobei das jeweils vorangegangene Medium wieder die basale Ebene der Formen für das folgende bietet).
  • Das Prozessieren, das Geschehen von Kommunikation ist von elementarer Bedeutung. „Die Sprache selbst ist Sprechen, Schreiben, Lesen; sie reproduziert die Möglichkeit der Formbildung und ist als Möglichkeit daran gebunden, dass sie benutzt wird.“ ((LUHMANN, Niklas: Einführung in die Systemtheorie, Heidelberg ²2004, S. 228.)) Der Duden ist nicht die deutsche Sprache.
  • Dem vorangegangenen Punkt ist der folgende ganz ähnlich:  Das (allgemeine) Medium ist stabiler als die (spezifische) Formbildung. ((Vgl. ebd.)) Gerade die lose Kopplung sorgt für Stabilität: Die Möglichkeiten eines Mediums spiegeln sich nie in einer Form wider und gerade diese Flexibilität sorgt für Stabilität. Formen können also rasch wechseln.
  • Sobald es zur Technisierung eines Codes kommt, sichert ein symbolisch generalisiertes Kommunikationsmedium die Autopoiesis eines Funktionssystems. ((Vgl. BARALDI, Claudio: Symbolisch generalisierte Kommunikationsmedien, in: BARALDI, Claudio, CORSI, Giancarlo, ESPOSITO, Elena: GLU. Glossar zu Niklas Luhmanns Theorie sozialer Systeme, Frankfurt/Main 1997, S. 34.))

Grafik  | flickr-Userin Becky E | cc-Lizenz | Danke!

Permalink

6

Codierung

Symbolisch generalisierte Kommunikationsmedien sind binär codiert; der Code bestimmt die Form des Mediums. Zahlen/Nichtzahlen ist der Code des Geldes, wahr/nicht-wahr der Code der Wahrheit. Der jeweils zentrale Code gilt für den gesamten Medienbereich. 1

Die Binarität lässt einen dritten Wert nicht zu, (ein Brötchen kann im Rahmen wirtschaftlicher Kommunikation nur gekauft oder nicht-gekauft werden, es gilt das „tertium non datur„-Prinzip), unabhängig von den Optionen „im Leben“. 2 Es wird also drastisch Komplexität reduziert, denn alle weiteren Sinnverweisungen bleiben unberücksichtigt: Eine potentiell unendliche Zahl von Möglichkeiten wird auf zwei verringert, oder: eine analoge in eine digitale Situation gewandelt. 3 Die Reduktion der Kommunikation auf die Form der Unterscheidung zwischen positivem und negativen Wert durch Codierung ermöglicht dem System Informationsverarbeitung.

Diese Erleichterung der Informationsverarbeitungsprozesse wird auch als „Technisierung“ bezeichnet 4. Zwischen den beiden Codewerten liegt nur noch eine Grenze  die qua Negation gekreuzt werden kann; das Kreuzen wird somit besonders erleichtert: „Wenn ein Positivwert, zum Beispiel wahr, angenommen wird, bereitet es keine Schwierigkeiten, mit einer weiteren Operation zu bestimmen, was folglich unwahr wäre, nämlich die gegenteilige Aussage.“ 5 Hier liegt die entscheidende Bedeutung der Semantik: Je leichter das Kreuzen, desto mehr verfestigt sich der Code selbst zu einer invarianten Struktur. 6

An diesem Punkt eröffnen sich uns mehrere Anschlüsse, die (wenn auch nur kurz) vor der Rückbindung der Beobachtung an das Erziehungssystem aufgenommen werden müssen:

[Die Logik George Spencer-Browns.] [Paradoxien der Selbstplacierung.] [Programme.] und schließlich [Folgen für die Pädagogik.]

Ein post scriptum: Der Binärcode der Artikel-Grafik kann übrigens mit diesem kleinen Tool decodiert werden.


Anmerkungen

  1. Vgl. LUHMANN, Niklas: Die Gesellschaft der Gesellschaft, Frankfurt/Main 1998, S. 359f.
  2. Vgl. ebd., S. 360.
  3. Vgl. Ebd., S. 360.
  4. Vgl. ESPOSITO, Elena: Code, in: BARALDI, Claudio, CORSI, Giancarlo, ESPOSITO, Elena: GLU. Glossar zu Niklas Luhmanns Theorie sozialer Systeme, Frankfurt/Main 1997, S. 34.
  5. LUHMANN 1998, S. 361.
  6. Vgl. ebd. Der Positivwert („Wahrheit“, „Zahlung“…) funktioniert dabei in zweierlei Hinsicht: Als Präferenzcode für die Anschlußsicherheit und zur Legitimation der Codierung selbst.