Computer AG 2017 Grundschule Everhard

- Was ist ein Computer ?

Geschichte
- Erster Computer 1833
- Ada Lovelace schrieb das erste Computerprogramm
- Margaret Hamilton mit dem ausgedruckten Programm der Apollo Mondlandung
Margaret Hamilton Programm Apollo

Wir Programmieren
- Calliope
- erste Schritte mit https://miniedit.calliope.cc/

Bewusstsein_in_Software_programmieren

Anmerkung: Dank der Wayback Machine konnte ich den Text retten von https://web-beta.archive.org/web/20090905083324/http://pascal.selfip.org:80/uni/asw/MA_Klausur_ASW.html.

Magister-Prüfung im 2. Nebenfach: Allgemeine Sprachwissenschaft


Name:
Pascal Christoph
E-mail:

pascal.christoph’at’web.de
Fachsemester: 10

Prüfer: Prof. Dr. Fritz Serzisko


Thema:
Lässt sich Bewusstsein in eine Software programmieren?
Problemskizze in Bezug auf die (computer-)linguistische Modellierbarkeit von Semantik natürlicher Sprachen.

Stichworte:

Objektivistische
Sicht (Aristoteles
),
Computer-Gehirn Vergleich (Von Neumann), Konzepte, Diskretheit, Prototypen (Rosch), Strukturelle Semantik (Saussure), Transkribtionsbegriff (Jäger),Kognitive Linguistik (Lakoff), Neuroarchitektur (Damasio),
Grenzen der Computabilität

Literatur:

  • Lakoff, George. 1990 [1987]. Women, Fire and Dangerous Things. What Categories Reveal about the Mind. Paperback edition. Chicago, London: The University of Chicago Press

  • Linz, Erika. 2002. Indiskrete Semantik. Kognitive Linguistik und neurowissenschaftliche Theoriebildung. München: Wilhelm Fink Verlag.

  • Hofstadter,
    Douglas R. 2001 [1991]. Gödel, Escher, Bach: ein Endloses Geflochtenes Band. 8. Aufl., München: dtv. Kapitel XV: Aus dem System hinausspringen. Kapitel XVII: Church, Turing, Tarski und andere.

  • Saussure, Ferdinand de. 1967 [1916]. Grundfragen der allgemeinen Sprachwissenschaft. 2. Aufl., Berlin: Walter de Gruyter & Co.

Synopse

Objektivismus

Strukturalismus

Kognitive Linguistik

Worte haben Referenz in Welt

Bedeutung durch Differenz der Worte innerhalb
der Sprache

Bedeutung erwächst aus sensomotorischer
Interaktion mit der Umwelt

Vorbemerkung

Ziel
der Klausur soll sein, einen relativ groben und in keiner Weise umfassenden, dafür allgemeinverständlichen Überblick über das Gebiet der Semantik als „Lehre von der Bedeutung“ zu geben, insbesondere im Hinblick auf die Computerlinguistik. Wie kann Semantik modelliert werden? Warum wurde sich mit Semantik ab Mitte des 20. Jahrhunderts wieder verstärkt beschäftigt? Die These, eine (computer-)linguistische Modellierung lässt sich nur auf der Grundlage einer Strukturellen Semantik betreiben, soll dargestellt werden. Aber auch auf allgemein-linguistische und philosophische Aspekte soll (kurz) eingegangen werden sowie einige aktuelle gesellschaftlichen
Implikationen der Künstlichen Intelligenz und Neurowissenschaften erörtert werden, die teilweise davon ausgehen, dass sich Bewusstsein in eine Software übertragen lässt, bzw. dass es einen freien Willen des Menschen nicht gibt. Als Arbeitsgrundlage dazu dienen die oben genannten Bücher. Gleichwohl werden Ideen von Searle, Turing, Putnam, Hofstadter, Weizenbaum et. al. skizziert. Was ist der Stand der Dinge, was sind die Erwartungen in Bezug auf die Modellierbarkeit von Semantik natürlicher Sprachen?

Einleitung

»Die
Semantik, die Lehre von den Inhalten und Bedeutungen der Wörter
und Sätze, ist ein weites Feld.«

K.D.
Bünting

In dieser Arbeit soll begründet werden, warum die Lesart von Semantik als Bedeutungslehre, die z.B. auch die Beziehung zwischen Sprache und Denken und Welt fasst, im Kontext der (Computer-)Linguistik auf den spezielleren Begriff Wortbedeutungslehre eingeengt werden muss und sich damit abgrenzt von z.B. emotiver, situativer, expressiver und sozialer Bedeutung. Dazu wird die Mehode der Strukturellen Semantik vorgestellt. Semantik soll hier also als Wissenschaft von den sprachlichen (vorwiegend lexematischen1) Inhalten gebraucht werden. Der Begriff war (und ist) in der Linguistik nicht immer derart eingegrenzt verwendet worden. Überlegungen eines zu weit gefassten Semantikbegriffs können bis zum Ausschluss der Semantik aus linguistischen Theorien führen – ein zu eng gefasster Begriff kann aber den Fachbegriff ‘Linguistik’ (also der Wissenschaft von natürlicher Sprache) erodieren, also auslaugen, da wichtige Komponenten ausgeschlossen werden. In dieser Arbeit wird allerdings nur eben eine solch eingeschränkte Konzeption verwendet. Warum dies so ist wird im folgenden Hauptteil, der mit einer genealogischen Skizze beginnt, erläutert. Im Unterkapitel ‘Definitionen’ gehe ich vor allem auf den Begriff des Wortfeldes ein und stelle andere sprachstrukturelle Semantiktheorien dar. Der Begriff der Semantik im allgemeineren, umfassenderen Sinne wird am Ende der Arbeit erörtert.

Hauptteil

Genealogische
Skizze

»Was sich wie vieles andere als gesunder Menschenverstand maskiert, ist in Wirklichkeit äußerst kompliziert und liegt gar nicht weit
ab von den Spekulationen antiker und mittelalterlicher Philosophen
.«

Bloomfield

Als einer der frühesten Quellennachweise der Reflektion über die Bedeutung von sprachlichen Zeichen dienen uns die Gedanken griechischer Philosophen. Zum Begriff Bedeutung schreibt John Lyons einleitend:

Die scholastischen2 Philospohen waren wie die Stoiker3 an der Sprache als Werkzeug zur Analyse der Struktur der Wirklichkeit interessiert. Deshalb war es gerade die Frage der Bedeutung oder der „Signifikation“, der sie das Größte Gewicht beimaßen. (Lyons 1971: 15)

Die Denkrichtung der sich auf Aristoteles berufenden Scholastiker ist die des Objektivismus. Dieser geht davon aus, dass der Verstand als Spiegel der (einen) Wirklichkeit zu betrachten ist, und dass linguistische Symbole zu Einheiten und Kategorien in der Welt korrespondieren, sich mithin Sprache, Denken usw. auf eine Logik zurückführen ließe (siehe dazu u.a. Lakoff 1987).

Die Stoiker dagegen

glaubten jedoch nicht, daß Sprache eine direkte Widerspiegelung der „Natur“ sei. Die meisten unter ihnen waren „Anomalisten“ die eine Entsprechung von Wörtern und Dingen verneinten und auf den unlogischen Aspekten der Sprache bestanden. (Lyons 1975: 12)

Die hier deutlich gewordenen gänzlich unterschiedlichen Auffassungen widerspiegeln einen alten, bis in die Gegenwart anhaltenden Disput in der Philosophie.4

Die neuere Geschichte der lexikalischen Semantik wurde bis zum Anfang des 20. Jahrhunderts fast gänzlich unter diachronischem5 Aspekt betrachtet.6 Die Beschreibung der Semantik zu einem gegebenen Zeitpunkt, also die synchrone Betrachtung, wurde vor allem 1931 durch Jost Triers Habilitation „Der deutsche Wortschatz im Sinnbezirk des Verstandes. Die Geschichte eines sprachlichen Feldes“ revolutioniert. Zur Entwicklung seiner Lehre erklärt Jost Trier: „Im ganzen der Auffassung fühle ich mich am stärksten verpflichtet FERDINAND DE SAUSSURE, am stärksten verwandt LEO WEISGERBER.“7 (Trier 1931: 11 zit. nach Geckeler 1971: 89; Hervorhebung im Original). Doch war Trier zweifelsohne nicht der erste Denker dieser Idee. Eugenio Coseriu macht auf Karl Wilhelm Ludwig Heyse aufmerksam, dessen Buch „System der Sprachwissenschaft“ in Berlin 1856 posthum herausgegeben wurde. Heyse unternimmt darin eine „beinahe vollkommene strukturelle, wenn auch mit anderen Absichten durchgeführte Inhaltsanalyse [des Wortfeldes ‚Schall‛].“8 (Coseriu 1967:489 f. zit. nach Geckeler 1971: 88)


Das Wortfeld ist definiert als eine Sammlung von Wörtern mit gemeinsamen semantischem Merkmal.

Ein semantisches Merkmal ist dabei kein psychologisches, abstraktes Konzept, sondern ein Wortvaleur (nach de Saussure, siehe unten). Triers Hinweis auf Saussure liefert die auf den Genfer Linguisten zurückgehende Strukturalistischen Methoden: durch strukturalistische Tests, wie z.B. Substitution, Permutation und Tilgung, werden die Distributionen der Syntagmen untersucht. Dadurch
lassen sich Wortfelder erzeugen.

Ein Grund für die (trotz Trier) weitgehende Ausklammerung der Semantik aus der Linguistik bis 1950 war sicherlich die Datenflut, die hätte verarbeitet werden müssen. Auf phonologischer Ebene ist die Anzahl9 der Elemente, und damit die Anzahl möglicher Distributionen10, relativ beschränkt.11 Auf der Wortebene ist die Anzahl der differenten Elemente um ein Vielfaches größer – und zudem dynamischer als auf phonologischer Ebene12. Dem amerikanischen Strukturalisten Leonard Bloomfield, dem oftmals Bedeutungsfeindlichkeit vorgeworfen wurde, beschreibt dies so:

In order to give a scientifically accurate definition of meaning of every form of a language, we should have to have a scientifically accurate knowledge of everything in the speakers’ world. The actual13 extent of human knowledge is very small, compared to this. (Bloomfield 1965: 139 f.)

Erst seit Beginn der 50er Jahre des 20. Jahrhunderts regt sich wieder großes Interesse an der Semantik. Dazu trug, so eine These der vorliegenden Arbeit, der nach Alan Turing benannte Turing-Test bei:

Im Zuge dieses Tests führt ein menschlicher Fragesteller über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt mit zwei ihm unbekannten Gesprächspartnern einen Chat. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine. Beide versuchen den Fragesteller davon zu überzeugen, dass sie denkende Menschen sind. Wenn der Fragesteller nach der intensiven Befragung nicht klar sagen kann, welcher von beiden die Maschine ist, hat diese den Turing-Test bestanden.

Der Turing-Test wurde 1950 von Alan Turing vorgeschlagen, um die Frage „Können Maschinen denken?“ zu entscheiden. Der aus der Anfangszeit des Informatik-Teilbereichs Künstliche Intelligenz stammende und seither legendäre Test trug dazu bei, den alten Mythos von der denkenden Maschine für das Computerzeitalter neu zu beleben. 14

Die digitale, maschinelle Sprachdatenverarbeitung, deren praktischer Ursprung im während des zweiten Weltkrieges speziell zur Dechiffrierung von militärischen Nachrichten der Deutschen gebauten Colossus gesehen werden kann,15 war zwar noch im Anfangsstadium, doch die Möglichkeiten und Entwicklungen wurden durch theoretische Überlegungen, wie etwa Turings, vorweggenommen und beflügelte sicherlich Theoretiker anderer Disziplinen.

Wenn auch der Zusammenhang von Informatik und Semantik u.a. in Geckeler (1971) nicht genannt wird, scheint es doch mehr als zufällig, dass

[i]m Jahre 1951 [...] ein Aufsatz von E.A. Nida mit dem für die damalige Situation des nordamerikanischen Strukturalismus ungewöhnlichen Titel: „A System for the Description of Semantic Elements“ [erschien]. Diese Arbeit schlägt zum ersten Mal eine umfassende und kohärente Terminologie für die Beschreibung der Bedeutung („meaning“) vor. (Geckeler 1971: 32)

Die Wiederentdeckung der Semantik innerhalb der Linguistik ist, so eine These dieser Arbeit, dem Umstand der Erfindung der maschinellen Datenverarbeitung geschuldet.

Definitionen

«Aliquid
stat pro aliquo.«
16

Für Chomsky ist Semantik aus der Syntax ableitbar. Da diese Annahme Probleme im Zusammenhang mit dem Anspruch der Erklärung von Kognition sich bringt, spielt Semantik in der generativen Grammatik kurzerhand eine untergeordnete Rolle. Chomsky schreibt 1988, dass es ‘a priori Konzepte’ gibt, die lediglich durch Worte, z.B. ‘climb’, gelabelt werden. Semantik gehört so gesehen nicht wirklich zur Linguistik. Im Gegensatz dazu stehen die Theorien der sogenannten „Kognitiven Linguisten“. Für Lakoff z.B. konstituieren räumlich-visuelle Erfahrungen (sprachlich-) konzeptuelle Strukturen: Bedeutung ist für Lakoff sprachunabhängig, Syntax ist der Bedeutung untergeordnet und aus ihr ableitbar.

Douglas R. Hofstadter, Professor für Kognitionswissenschaft und Buchautor, beschreibt den Unterschied von Syntax zur Semantik wie folgt: „Syntaktische Eigenschaften sind eindeutig in dem in Frage stehenden Objekt vorhanden, während semantische Eigenschaften von den Beziehungen zu einer potentiell unendlichen Klasse anderer Objekte abhängen und sich deshalb nicht vollständig lokalisieren lassen. Die Bedeutung eines Objektes ist nicht im Objekt selbst lokalisierbar. Das heißt nicht, dass es erst am Ende aller Zeiten möglich ist, die Bedeutung eines Objektes zu verstehen, denn während die Zeit verstreicht, entfaltet sich immer mehr Bedeutung. Es gibt aber immer auch Bedeutungsaspekte, die beliebig lange verhüllt bleiben.“ (Hofstadter 2001: 620 ff.).

Aktuelle Untersuchungen von Neurowissenschaftlern (z.B. Damasio) zeigen, dass es keine eindeutig abgrenzbaren „Chomskysche Module“ im Gehirn gibt. Vielmehr sind die verschiedenen ‘Systeme’ (Wahrnehmung, Reflektion, Gefühle, Sprache usw.) ineinander vermengt, und ebenso die Bedeutungskonstitution. Diese Beobachtungen, wie auch Lakoffs Konzepte, sind zwar sehr interessant, schießen aber über das genuine Kernthema der Linguistik, nämlich Sprache, hinaus. Deshalb, und auch weil sich zur Zeit noch keine psychischen Vorstellungen im Rechner modellieren lassen, wird im Folgenden die Eingangs erwähnte Lesart von Semantik als Wissenschaft von den sprachlichen Inhalten gebraucht.

Die lexikalische Semantik beschäftigt sich mit der Bedeutung von Wörtern wie auch der inneren Strukturierung des Wortschatzes insgesamt. Die Strukturierung besteht in der Darstellung der Relationen der Wörter zu anderen Wörtern und zeigt damit Verwandtschaft zur Kategorienlehre des Aristoteles sowie zu deren Weiterentwicklung, der Prototypentheorie Eleanor Roschs und auch der Kategorialsemantik. Als Bezeichnung solch einer Relation hat sich der Begriff Wortfeld etabliert. Der Begriff Wortfeld wurde vor allem von Trier und Weissgerber geprägt und suggeriert eine Sammlung von Wörtern, die durch ein gemeinsames semantisches Merkmal gekennzeichnet sind. Trier geht von einer Gliederung des Wortschatzes aus, bei der sich die Glieder, also die Wörter, gegenseitig voneinander abgrenzen und so ihre Bedeutung durch ihre Stellung innerhalb dieses Systems erhalten. Bei Saussure findet sich im Kapitel „Der sprachliche Wert, § 2“ ein Grundgedanke der Feldforscher:

Innerhalb einer und derselben Sprache begrenzen sich gegenseitig alle Worte, welche verwandte Vorstellungen ausdrücken: Synonyma wie denken, meinen, glauben haben ihren besonderen Wert nur durch ihre Gegenüberstellung; wenn meinen nicht vorhanden wäre, würde sein ganzer Inhalt seinen Konkurrenten zufallen. (Saussure 1967:138)

Lyons hat recht, wenn er darauf aufmerksam macht, dass wir nichts über die Worte wissen, wenn wir nur ihre Feldposition bestimmt haben: wenn wir z.B. wissen, dass „Spunk“ ein Synonym zu „Trellink“ und das Antonym zu „Fillefiz“ ist, uns aber jeder dieser Worte unbekannt ist, dann haben können wir keinem Wort wirklich Bedeutung zuweisen: Wenigstens ein Wort muss schon bedeutsam sein. Dazu liesse sich die Wortfeldtheorie mit dem ihr verwandten Kontextualismus, der aus Kollokationen, also Wortverbindungen, die häufig auftreten (etwa: „Der Spunk ist dunkel“), verbinden, um Attribute für die Worte zu erhalten. Aber wiederum gilt: wenn das Wort „dunkel“ unbekannt ist, trägt die Attribution nur zur sprachsystemimmanenten Bedeutungsbestimmung bei. Über diese Attribute liesse sich die Merkmalshypothese (oder: Atomistische Hypothese) umsetzen: Danach sind Bedeutungen keine ganzheitlichen, nicht weiter zu analysierende Einheiten, sondern setzen sich aus elementaren Inhaltselementen, den semantischen Merkmalen zusammen. Semantische Merkmale haben distinktive Funktionen, d.h. sie grenzen Wortbedeutungen voneinander ab. Ein „Mann“ ist männlich, belebt, erwachsen, eine Frau ist weiblich, belebt, erwachsen, ein Junge ist … .

Die Beobachtung Lyons gilt weiterhin ! Die Merkmalstheorie führt zur Kategorienlehre Aristoteles: unter dem Begriff „Vogel“ sind Taube, Spatz, Falke und Pinguin subsumiert und gehören alle gleichwertig zur Vogelkategorie. Wittgenstein prägte den Begriff „Familienähnlichkeit“: „Brettspiele“, „Kartenspiele“ und „Ballspiele“ haben Ähnlichkeit, und die Schnittmenge bildet den/der Oberbegriff „Spiel“. Etwas weiter geht Eleanor Rosch mit der von ihr geprägten „Prototypensemantik“, nach der ein zusätzlicher Parameter den Begriffen zugeordnet wird, der den Ähnlichkeitsgrad der Worte zum Prototyp bestimmt. Z.B. wäre ein Pinguin ein „schlechter“ Vertreter für die Kategorie Vogel, während Rabe ein „prototypischer“, also „sehr guter“ Vertreter ist. (Hier lässt sich sehr schön erkennen, dass es korpus- bzw. kulturellabhängig ist, welcher Vogel als Prototyp angesehn wird: der Ländler wird den Raben angeben, der Städter möglicherweise die Taube, der südamerikanische Regenwaldbewohner den Papagei. Diese Beobachtung, die Wichtigkeit der Grundlage des Wissens, gilt generell für die Domäne Semantik). Durch die Prototypensemantik lassen sich, im Gegensatz zur reinen Kategorienlehre, unscharfe Grenzen ziehen. Letztlich lässt sie sich aber ebenso durch kombinierte Wortfelder darstellen, und also ebenso rein maschinell aus einem Korpus erzeugen. Lyons Beobachtung gilt immer noch !

Computerlinguistik:

Da sich diese strukturalistischen Methoden ihrer Form nach an den Naturwissenschaften orientieren, ihre Formalismen und Termini sich also der Logik und der Mathematik entlehnen, sind diese Methoden für den Einsatz in computerlinguistische Modelle prädestiniert.

Algorithmen können, nach dem gegenwärtigen Forschungsstand, nicht mit psychischen Vorstellungen arbeiten. Deshalb schließt u.a. Geckeler die sogenannten „Konnotationen“, die die Verbindung zu den psychischen Vorstellungen herstellen, aus dem Sprachsystem explizit aus:17

Konnotationen gehören, unserer Meinung nach, nicht zur Ebene des Sprachsystems, und zwar nicht allein deshalb, weil ihnen die intersubjektive Gültigkeit fehlt, sondern weil sie nicht die distinktiven Funktionen betreffen.

Für Saussure entsteht die Bedeutung eines Zeichens durch die Opposition zu anderen Zeichen. Er spricht daher von der Negativität des – in sich bedeutungslosen – Zeichens (“nullité du sème en soi”). Diesen systemischen Aspekt der differenzlogischen Bestimmung von Bedeutung bezeichnet Saussure als valeur, als systemischen Wert des Zeichens, als Bedeutung im System.18

Der Wert ist einerseits Bestandteil der Bedeutung, andererseits kann er auch die Bedeutung beeinflussen (Saussure 1967:136). Unter der Verwendung des valeur wird ein Wertfeld erzeugt, dass bar jeder psychischen Konnotation und ohne jede Interpretation rein maschinell erzeugt werden kann.

Als ein weiteres Verfahren zur maschinellen Generierung von Semantik kann die Heuristik der Transkription verwendet werden. Transkription, also das „Überschreiben, Übertragen“, kann als Überbegriff zur Bedeutungsgewinnung gelten. Dabei beobachtet George Lakoff : „Lewis is right about the inadequacy of doing semantics by translating one set of symbols to another.“ (Lakoff 1987:205).Ein Bedeutungsgewinn ist durch einfaches Ersetzen eines Symbols durch ein anderes, gleichbedeutendes (bzw. zuerst inhaltsleerem) Symbol nicht zu erreichen. Werden allerdings Symbole unterschiedlicher signifiés oder valeur in Beziehung gesetzt, verhält es sich anders. Ludwig Jäger erläutert zur Generierung von Semantik:

Der Begriff des Transkribierens, der als ein heuristischer und operativ zu erprobender Leitbegriff medienwissenschaftlichen Forschens angesehen werden kann, steht dabei für ein Verfahren wechselseitiger intermedialer Um, Ein- und Über-Schreibungen, das als eine basale Strategie für die Generierung kultureller Semantik zu fungieren scheint [...].

Bedeutungsgenerierung [ist] die wechselseitige Bezugnahme (…) symbolischer Mittel desselben Systems [(gemeint ist die Sprache)] aufeinander (…). Transkribieren in Bezug auf die Semantik natürlicher Sprachen [ist] ein intramediales Verfahren, das [...] ihre [(der Sprachen)] Eigenschaft nutzt, mit Sprache über Sprache zu kommunizieren und so den Verwendungssinn von Äußerungen zu erschließen [...].(Jäger 2004:71 f.)19

In diesem Sinne hat Ross Quillian im Jahre 1968 die auf Otto Selz zurückgehende Idee des semantischen Netzwerks in LISP umgesetzt. Zum Beispiel wird darin einem Wortsymbol [Table] unter anderem folgende Attribute zugeschrieben:

superordinate: FURNITURE

part: LEGS

Philip Johnson-Laird formuliert dazu: „By itself, this Symbol [(Table)] is meaningless, but it appears to become more meaningful if several labelled associations are linked to it.“ (Johnson-Laird 1993:328)

Weshalb sollte ein bedeutungsloses Symbol an Bedeutung gewinnen, wenn es mit weiteren bedeutungslosen Symbole vernetzt ist? Die (strukturalistische) Antwort darauf kann nur sein:

der Bedeutungsgewinn ist die so entstandene Relation zwischen den untereinander verknüpften Symbolen.

Alle hier skizzierten Semantiktheorien, also z.B. auch die Merkmalshypothese oder die Prototypentheorie, lassen sich durch strukturalistische Tests, also Ko(n)textanalysen, umsetzen. Das heißt, dass durch ein möglichst großes Korpus und auf Grundlage des Wissens über den Aufbau zugrundeliegender Sytagmen und der Grammatik automatisch lexematische Wortbedeutungen erzeugbar sind. Eins der bekanntesten Projekte dazu ist der ‘Leipziger Wortschatz’.

Weitgefasste Semantik

Bedeutungsgenerierung findet im Gehirn statt. 1958 erscheint das Buch „The Computer and the Brain“ von John von Neumann, dem Architekten aller heute üblichen CPU, also der Central Processor Unit, die das Kernstück eines jeden Rechners darstellt. Auf dem vorderen Buchumschlag ist nur eine große, offene Rechenanlage mit ihren Verdrahtungen und Verschaltungen zu sehen. Auf der Rückseite steht neben der Rechenanlage John von Neumann selbst. Der Computer gilt seither als Modell des Gehirns. Viele Menschen glauben, dass es nur eine Frage der Zeit ist, bis Maschinen intelligenter sind als Menschen. Aber ist diese Gleichsetzung wirklich adäquat?

Ein Aspekt der Problematik ist, dass sich Algorithmen, also Programme die auf Rechnern ausgeführt werden können, stets in abgeschlossenen Systemen bewegen. Dies steht im schroffen Gegensatz zu Menschen, die „gödelisieren“20, also deren Gedanke sich über definierte Systemgrenzen hinweg bewegen. Das geschieht oft unbewusst. Dabei stellt Quine21 fest, dass diese Systeme insgesamt wieder ein geschlossenes System bilden: „Sätze dürfen sich nicht einzeln, sondern als geschlossene Formation dem Erfahrungstest stellen.“ (zit. nach Putnam 1999:35). Die Verkettung der Einzelbedeutungen von Sätzen (die z.B. mit der propositionalen Prädikatenlogik festgelegt sind als Beziehung von Argumenten zu Prädikaten) ergeben einen ganz anderen Sinn, als sich aus der Analyse der einzelnen Sätze erkennen ließe. Beispiel:

a) Ich
sitze in der Kirche.

b) Ich
trinke ein Bier.

Einzelnd
gelesen sind die Sätze harmlos, aber zusammengefasst sind sie es
nicht: „Ich sitze in der Kirche und trinke ein Bier“. Das Ganze
ist also mehr als die Summe seiner Teile.

Das Problem daran ist, dass Menschen ihrer Systemüberschreitungen selten bewusst sind. Wenn beispielsweise die gleichen signifiants in unterschiedlichen Ko(n)texten stehen, so sind ihre signifiés unterschiedlich. Der Logiker Hilary Putnam macht dies mit einem Beispiel deutlich: Wenn bekannt ist, dass der Dieb durch ein Fenster eingestiegen ist, und außerdem der Boden vor dem Fenster matschig sei, so wird daraus „gefolgert“, dass es in dem Matsch Fußabdrücke gibt. Dies ist jedoch keine logische Folgerung aus den dargelegten Fakten, denn es wurde eine unausgesprochene Hilfshypothese verwendet, die besagt: Wenn der Dieb durch dieses Fenster eingestiegen ist, ist er über den Boden gegangen, um zu dem Fenster zu gelangen, und außerdem kommen noch allgemeine Informationen hinzu. Sagt ein Zeuge nun aus: „Nein, er ist auf Stelzen gegangen“, so wird damit gerechnet, anstelle der Fußabdrücke andere geformte Vertiefungen im Matsch zu finden.

Es ist eben die geschlossene Formation der Aussagen, die Erfahrungsbedeutung hat, und diese Bedeutung ist nicht die bloße Summe der Erfahrungsbedeutungen der Einzelaussagen. (Putnam 1999:35)

Wahrscheinlich wird die stetig steigende Rechenkraft es ermöglichen, den riesigen Kontext (im Sinne von Weltwissen) in Beziehung zu den Lexemen und Satzimplikationen zu setzen, etwa so, wie die Rechner der 1950er die Kontextanalyse von Wörtern möglich werden ließ (als Weiterführung zur auch ohne Rechner möglichen, da weniger rechenintensiven Analyse der Kontexte der Phoneme). Dadurch wären aber z.B. Emotionen, wie etwa verletzte religiöse Gefühle im Kirchenbierbeispiel, noch nicht konstituiert, d.h. emotive Bedeutung wäre immer noch nicht gefasst.

Rein sprachwissenschaftliche Theorien über Semantik können immer nur von sprachsystemimmanenter Bedeutung handeln (oder es handelt sich um fächerübergreifende Linguistik wie z.B. die Psycholinguistik oder die Kognitive Linguistik). Die Theorien können oftmals unbedeutete Worte durch andere, schon bedeutete Worte, erklären, indem sie miteinander in Beziehung gesetzt werden. Und nur diese Beziehungen lassen sich, mindestens prinzipiell und oftmals auch schon tasächlich realisiert, maschinell erzeugen. Die Ausgangspunkte aber, die „a priori“ gegebenen bedeuteten Worte, deren Bedeutung durch die Erfahrung des Menschen mit der Umwelt generiert wurde, lassen sich nur schwer, wenn überhaupt, in eine Maschine übertragen: die „Mechanismen“ dafür schließen die unterschiedlichsten Bereiche der Biologie, der Mathematik, der Psychologie, der Neurowissenschaft et cetera, ein. Es ginge darum, die verschiedenen Systeme miteinander zu koppeln.

Würde es tatsächlich gelingen könnte das zur Folge haben, dass Maschinen Bewusstsein erlangen würden. Hofstadter schließt nicht aus, dass dieses Streben letztlich auf eine komplette Kopie des Gehirns hinauslaufen könnte. Inwiefern ließe sich dann noch von einer Maschine sprechen? Was auch immer das Streben nach dem Golem mit sich bringen wird – die Leistung der Generierung der Ausgangspunkte, der „a priori“ gegebenen Bedeutungen, liegen nicht im Fachbereich eines Linguisten. Lyons Aussage, dass wir nichts über die Worte wissen, wenn wir ihre Position zueinander kennen, lässt sich auf alle anderen Semantiktheorien der Linguistik beziehen: auch durch die Merkmalshypothese, die z.B. dem Wort „Baum“ das Attribut „lebendig“ zuschreibt, liesse uns nichts über das Wort „Baum“ wissen, wenn wir nicht schon wüssten, was „lebendig“ meint. Die auf den ersten Blick lustige Aussage des Prager Funktionalisten Jakobson, ein Distributionalist würde auf die Frage „Was ist ein Speisewagen“ antworten „Ein Wagen, der nicht zwischen zwei Güterwaggons steht“, während die Funktionalisten antworten würden „Ein Wagen, in dem Essen zu sich genommen wird“, täuscht nur darüber hinweg, das die Funktionalisten bei der Problemlösung, Sprache durch Sprache zu beschreiben, dieselben Probleme haben wie die Distributionalisten, denn die Worte „Essen“ und „zu sich genommen“ usw. sind ja ebenso unbekannt (wenn nicht „irgendwie“ a priori gegeben), also ohne imaginatives Konzept, und stehen höchstens in Relation zueinander.

Das Chinesische Zimmer von Searle

Das Beispiel des Chinesischen Zimmers von Searle macht das grundlegende Nicht-Verstehen deutlich: Searle beschrieb einen geschlossenen Raum, in dem sich ein Mensch befindet. Ihm werden durch einen Schlitz in der Tür Zettel mit Geschichten in chinesischer Notation zugestellt. Er selbst ist der chinesischen Sprache nicht mächtig und versteht somit weder den Sinn der einzelnen Zeichen noch den Sinn der Geschichte. Danach erhält er noch einen Zettel mit Fragen zu der Geschichte (ebenfalls in chinesischer Notation). Der Mensch fände des Weiteren einen Stapel chinesischer Skripte und ein „Handbuch“ mit Regeln in seiner Muttersprache vor. Das Handbuch ermöglicht ihm das Skript mit der Geschichte in Verbindung zu bringen, allerdings ausschließlich auf der Ebene der Zeichenerkennung (über die Form der Zeichen). Auch entnimmt er dem Handbuch Anweisungen, welche Zeichen er (abhängig von den Zeichen der Geschichte und der Fragen) auf den Antwortzettel zu übertragen hat. Er folgt also rein mechanischen Anweisungen und schiebt das Ergebnis (die „Antworten“ auf die Fragen) durch den Türschlitz, ohne die Geschichte oder die Fragen verstanden zu haben. Vor der Tür wartet ein chinesischer Mandarinsprachler, welcher die Antwortzettel liest. Er kommt aufgrund der Sinnhaftigkeit der Antworten zu dem Ergebnis, im Raum befinde sich ebenfalls ein mandarinsprechender Mensch. Ergo wird der Turing-Test bestanden, obwohl der Mensch bar jeden Verstehens ist und er nichts weiter durchführt als reine Symbolmanipulation. Der Turing-Test kann also kein hinreichendes Kriterium für (bewusstseinsbedingte, nicht einmal komplexe) Intelligenz sein. Mithin schaffen Computerlinguisten mit den ihnen zur Verfügung stehenden Daten und Mitteln (quantitative, syntagmatische Analysen riesiger Korpora über die Heuristik der strukturalistischen Distributionsanalyse) sprachimmanente Bedeutung und kein System, dass menschliche Intelligenz besitzt.

Im Folgenden stelle ich knapp zwei (philosophische) Sichtweisen gegenüber, die die prinzipiell verschiedenen Herangehensweisen an Semantik zeigen:

objectivist view

  • Denken ist die mechanische Manipulation abstrakter Symbole.

  • Der Verstand ist eine abstrakte Maschine,die Symbole wie ein Computer
    durch algorithmische Berechnungen manipuliert.

  • Symbole (z.B. Wörter und mentale Repräsentationen) erhalten ihre Bedeutung durch Korrespondenz mit Sachen der externen Welt.Bedeutung wird generell durch Referenz erreicht. Symbole sind interne Repräsentationen externer Realität.

  • Die abstrakte Symbol-Manipulation ist unabhängig von besonderen Eigenschaften von irgendeinem Organismus.

  • Korrekt angewendet spiegelt der Verstand die Logik der externen Welt wieder.

  • Der menschliche Körper kann eine Rolle dafür spielen, welches Konzept und welche Arten des transzendentalen Verstandes der Mensch jetzt gerade benutzt, aber der Körper spielt keine essentielle Rolle bei der Charakterisierung, was ein Konzept und was den Verstand ausmacht.

  • Denken ist abstrakt und nicht verkörpert, da es unabhängig von Begrenzungen des menschlichen Körpers, dem Wahrnehmungs- Nervensystem ist.

  • Maschinen, die lediglich Symbole, die mit Dingen der Welt referieren, mechanisch manipulieren (Computer), sind zu bedeutungsvollen Gedanken und Verstand in der Lage.

experientalist
view

  • Denken ist verkörpert: Die Strukturen der kognitiven Systeme entwickeln sich aus Erfahrung. Der Kern unserer kognitiven Systeme ist ein direktes Resultat von Wahrnehmung, Körperbewegung und Erfahrung mit physischem und sozialem Charakter.

  • Denken ist imaginativ: die Konzepte, die nicht direkt aus Erfahrung resultieren, erwachsen aus Metapher, Metonymie und mentaler Vorstellung. Die imaginative Fähigkeit erlaubt abstraktes Denken und ist indirekt durch Erfahrung verkörpert.

  • Denk-Konzepte haben komplizierte Formen.

  • Denken ist mehr als mechanische Symbol-Manipulation. Die Effizienz kognitiver Prozesse (Lernen und Gedächtnis) hängt von der Struktur des Systems ab.

Für den Strukturalismus dagegen existiert Struktur nur auf der Ebene eines Modells, nicht auf der Ebene der Wirklichkeit. Damit bewegt sich diese Theorie in einem enggesteckten Rahmen (oder System).

Das folgende Beispiel soll den Systembegriff, auf den oben schon öfter rekuriert wurde, verdeutlichen. Durch das Beispiel lässt sich auch die diskursive Darstellung von Hofstadter in seinem Buch „Gödel, Escher, Bach – Ein Endloses Geflochtenes Band“ gegenüber Lukas begreifen. Gegeben sei folgende Aufgabe:

  • Verbinde mit nur vier gerade Striche alle folgenden neun Punkte, ohne den Stift abzusetzen

Die anfänglichen Versuche der meisten Menschen werden ungefähr so aussehen

da ein gewisses „System“ mit seinen Systemgrenzen angenommen wird (das System wird unbewusst durch die Anordnug der Punkte „erkannt“). Solange sich der Problemlöser innerhalb dieses Systems bewegt, ist die Aufgabe aber unlösbar. Erst, wenn das kleinere System verlassen wird, ist die Aufgabe lösbar:

Formale Systeme können nur innerhalb ihrer Systemgrenzen arbeiten. Ein Mensch, so Lukas, befindet sich aber außerhalb dieser Systeme, kann mithin Problemlösungen durch Eingriff von „außen“ bewirken und damit z.B. das Problem der Neun-Punkte (oder das der Zuweisung von Wort- und Satzbedeutungen, die über das Sprachsystem hinausgehen) doch lösen. Formale Systeme, also in Rechner übertragbare Programme, sind immer finit und definit, und der Geist sei dies nicht. Hofstadter dagegen behauptet gerade das (der menschliche Geist eine (komplexe) Maschine sei): für das Lösen des Neun-Punkte Problems muss lediglich das formale System erweitert werden werden (für andere Probleme ist genauso zu verfahren. An irgendeinem Punkt übertrifft ein Rechner dann den menschlichen Geist, oder zieht zumindest gleich).

Immer dann, wenn der Semantikbegriff sehr eingeschränkt verwendet wird, entstehen Theorien für die Übertragbarkeit des „Denkens“ auf Maschinen. So stellt Hillary Putnam in den 1950er Jahren die These auf, der Computer sei das adäquate Modell für das Bewusstsein.22
In Repräsentation und Realität23
versucht er zu beweisen, dass seine These des sogenannten Funktionalismus nicht stimmen kann und schlussfolgert: „Kurz, wenn der Funktionalismus zuträfe, würde er den Behaviourismus implizieren!“ (Putnam 1999:218)

Viele Forscher der künstlichen Intelligenz gehen dennoch soweit zu behaupten, dass das Denken und Fühlen eines Menschen in einen Automaten programmierbar sei.24
Zu ihren Argumenten zählen Computermodelle, die neuronale Netze simulieren. Allerdings arbeiten mechanische Rechner immer sequentiell oder nur teilweise parallel – schon allein deswegen kann ein neuronales Rechnernetz nicht mit biologischen Systemen, die konsequent Informationen parallel verarbeiten, konkurrieren. Die durch neuronale Netze umgesetzten Programme sind zudem ebenso nach einer „Logik“ programmiert, die z.B. nach der Methode der Distributionsanalyse arbeiten. Also bleibt das grundsätzliche Problem, das Problem der Grenzen formaler Systeme, bestehen. Neurowissenschaftler wie Damasio haben gezeigt, dass Erfahrung neuronale Strukturen erzeugen, die aber nicht als etwas statisch repräsentiertes erinnert werden können, sondern durch neuronale abstrakte Stimulierung von Aktivierungsmuster rekonstruiert werden, gleichsam als ungenaue, wiederholte Simulation der Erfahrung. Die Wissensrepräsentation ist also indiskret und dynamisch und basiert auf Erfahrung, und folgt damit anderen Prinzipien als Rechnerprogramme. Trotzdem proklamieren renommierte Neuro-Wissenschaftler in einem Manifest in der vom Spektrum Verlag herausgegebenen Zeitschrift „Gehirn & Geist“ die Programmierbarkeit des Menschen: „Geist und Bewusstsein – wie einzigartig sie von uns auch empfunden werden – fügen sich also in das Naturgeschehen ein und übersteigen es nicht.“25
Es mag für manche Arbeiten notwendig sein, Menschen zeitweise lediglich als komplexe Maschinen zu interpretieren, beispielsweise in der (Neuro-)Chirurgie. Aber so wichtig und nützlich die Erforschung der Intelligenz auch ist, so gefährlich ist sie im Hinblick auf das von ihr induzierte allgemeine Menschenbild. Joseph Weizenbaum dazu:

Daß die Artificial-Intelligence-Elite glaubt, Gefühle wie Liebe, Kummer, Freude, Trauer und alles, was die menschliche Seele mit Gefühlen und Emotionen aufwühlt, ließen sich einfach mir nichts dir nichts in einen Maschinenartefakt mit Computergehirn transferieren, zeigt, wie mir scheint, eine Verachtung für das Leben, eine Verleugnung ihrer eigenen menschlichen Erfahrung, um es vorsichtig auszudrücken. (Weizenbaum 2001: 42)

Schluss

Zusammenfassend lässt sich festhalten:

Bei aller Beschäftigung mit Semantik, die ab Mitte des 20. Jahrhunderts und im Kontext digitaler Rechner eine Renaissance erlebte, wird oft vergessen, dass letztlich nur der Mensch durch seine Interpretation Symbolen, Relationen oder Netzwerken usw. Sinn zuspricht: ohne einen interpretierenden Menschen wird Bedeutung bedeutungslos.

1Ein Lexem ist ein Eintrag im Lexikon. Eigenschaften eines Lexems sind u.a. Merkmale der syntaktischen Klassifikation (z.B. Verb oder Nomen).

2Die Blütezeit der Scholastik lag im 13. Jahrhundert.

3Der antike Ursprung lag in Athen um 300 vor Christus.

4Aus den sogenannten Naturalisten und den ihnen entgegengesetzt denkenen Konventionalisten entwickelten sich später die sogennanten Analogisten und Anomalisten (vgl.: Lyons 1971:4 ff.).

5Der von Saussure geprägte Begriff diachron stammt aus dem Griechischen (dia[δια]=durch, hindurch und chronos[χρονος ]=Zeit). Ein diachronischer Prozess ist als ein Prozess der über einen längeren Zeitabschnitt hinweg stattfindet (z.B. der Wandel eines mittelhochdeutschen zum neuhochdeutschen Wort).

6Wobei „die Semantik schon im Rahmen der historisch ausgerichteten Sprachwissenschaft des 19. und des frühen 20. Jahrdunderts als letzte der klar umrissenen Disziplinen entstand.“ (Geckeler 1971:26 f.)

7Diesem Selbstzeugnis fügt Geckeler Wilhelm von Humboldt als einen weiteren Vordenker hinzu, da Weisgerber schließlich „in keiner seiner Arbeiten einen Zweifel über die entscheidende Rolle [aufkommen läßt], die Humboldts Ideen für seine sprachwissenschaftliche Konzeption spiele.“ (Geckeler 1971:89)

8Die explizite Bezeichnung Wortfeld findet sich in Heyses Werk noch nicht. Spätestens 1910 findet der Feldbegriff Verwendung. Geckeler (1971:88) verweist hierbei auf das im Jahr 1910 erschiene Buch von Adolf Stöhr „Lehrbuch der Logik in psychologisierender Darstellung“.

9Natürliche Sprachen haben zwischen 13 und etwa 80 Phoneme. So gibt es im Sobei, einer ozeanischen Sprache, 15 Konsonanten und 5 Vokale. Das deutsche Phoneminventar hat etwa die Größe von 40.

10Die „ungünstigste“ Anzahl der möglichen Distributionen errechnet sich aus der Anzahl der Elemente potenziert mit der „Ordnung“ (oder: Stelligkeit) der Distributionsanalyse. Die wichtigsten Aussagen sind schon mit Analysen zweiter Ordnung, also der Beschreibung eines Elementes und seines direkten Nachfolgers, zu erreichen. Beispielsweise gilt für das Deutsche: Dem /p/ kann ein /f/ folgen, aber kein /t/.

11Der Strukturalismus hat sich anfangs fast gänzlich auf den Bereich Phonologie konzentriert.

12Sprache ist ein offenes, lebendiges System und konstituiert ständig neue Worte. Mit Ludwig Wittgensteins Worten Sprache ist eine Lebensform.

13Diese Äußerung stammt aus dem Jahre 1933.

14http://de.wikipedia.org/wiki/Turing-Test
(letzter Zugriff: 21.02.2006)

15http://de.wikipedia.org/wiki/Colossus
(letzter Zugriff: 21.02.2006)

16Etwas, das für etwas anderes steht.

17Unter anderem Halliday (1966) versteht den Begriff Konnotation genau im Gegegenteil als grundlegend für strukturelle Bedeutung: „Die auf dem konnotativen Bedeutungsaspekt beruhende strukturelle Bedeutung umfaßt demgegenüber sämtliche sprachinternen Relationen (wie etwa Synonymie, Hyperonymie u.a.), welche die Position eines Zeichens innerhalb des Sprachsystems bedingen.“ (Mehler 2004)

18Vergleiche dazu Saussure (1967), Kapitel 4 „Der sprachliche Wert“.

19Transkriptive Verfahren unter intra- und intermedialer Bezugnahmen sind nach Jäger z.B. Konkordanzen, Glossare, Register, Lexika, Enzyklopädien, Datenbanken und Suchmaschinen.

20Für eine nähere Erläuterung siehe Hofstadter (2001)

21Willard Van Orman Quine ist einer der einflussreichsten amerikanischen Philosophen und Logiker des 20. Jahrhunderts.

22Die Theorie erhielt den Namen Funktionalismus

23Der Beweis erschien das erste Mal 1981 in „Reason, Truth, and History“ und wurde bekannt als Putnams Theorem.

24Ähnlich der Gestalt Datas aus der bekannten Science Fiction Serie Star Trek – The Next Generation und ähnlch dem Androiden aus dem Film Bladerunner (der auf dem Roman „Do Androids Dream of Electric Sheep?“ von Philip K. Dick beruht).

25http://www.gehirnundgeist.de/blatt/det_gg_manifest
(letzter Zugriff: 28.02.2006)

Vorschlag zum “Luftreinhalteplan Stadt Köln”: eine Innenstadtmaut

(Meine Mail an die Bezirksregierung Köln zu http://www.bezreg-koeln.nrw.de/brk_internet/luftreinhalteplan-stadt-koeln/index.html):

Sehr geehrte Damen u. Herren,

es gibt viele Möglichkeiten um die Luft Kölns (und damit die Gesundheit der Menschen Kölns ) zu verbesseren.

Ich schlage vor es wie London zu machen – eine Maut für den Stadtverkehr:

“Dadurch sollen Staus und die damit verbundene Umweltverschmutzung reduziert und die Dauer der Fahrten zeitlich berechenbarer werden. TfL investiert nach eigenen Angaben einen Großteil des erhobenen Geldes in den Nahverkehr.” (https://de.wikipedia.org/wiki/London_Congestion_Charge)

Durch die zu erwartende Reduzierung der Anzahl von KFZ werden Staus seltener. Der Zeitgewinn der Menschen ist dabei auch direkt ein wirtschaftlicher Gewinn – zudem wird es weniger Ärger und Frust geben.
Köln wird durch die Maut als Wirtschaftsstandort attraktiver!

Die Maut in London hat für die Menschen dort weit mehr Vorteile gebracht als Unanehmlichkeiten.

Nun ließe sich leicht unken, dass die Einführung einer Maut in Köln im Chaos enden muss – dieses Argument von Mautgegner ist tatsächlich gewichtig. Deshalb sollte das Rad nicht neu efunden werden sondern die Londoner Technik und Planung 1 zu 1 übernommen werden!

Gehen Sie doch bitte in die Geschichtsbücher ein als mutige, der Stadt Köln zu Prosperität verhelfende Hüter der Bürger, deren Dank Sie gewiss sein können,

mit freundlichen Grüßen

Die Ukrainekrise in deutschen Medien bis 2016

Sammlung subjektiver, kurzer Rezensionen von Schriften zum Thema “Ukrainekrise”

Hier sind einige sehr subjektive, sehr kurze Rezensionen von Schriften zum Thema “Ukrainekrise” versammelt. Hintergrund ist die bis dato polarisierte EU-Sicht der deutschen öffentlichen Medien, die sich quasi als Pendant zur Putin-Propaganda gerieren – und es damit auch nicht besser machen. Grundlage meiner Beurteilung sind eine handvoll Interviews mit Migranten der Ostukraine, die dort in den 90er lebten.

1. UA – Ukraine zwischen Ost und West. Vontobel Stiftung. Prof. Ulrich Schmid, 2015.

  • Fazit: Russland böse, die EU gut.
  • Spindoktor Faktor: 90%
  • Ganz gelesen: nein

  • Hier drei symptomatische Argumentationen:

  • Auf keiner der interessanten Karten, die etwa zeigen dass große Teile des Westens der Ukraine vor dem Ende des 2.WK zu Rumänien, Polen und Tschecheslowakei gehörten, ist die Krim als zugehörig zu Russland markiert, obwohl sie 1921 als Autonome Sozialistische Sowjetrepublik der Russischen Sozialistischen Föderativen Sowjetrepublik kreiert wurde und bis 1954 Teil Russlands war.
  • auf Seite 9 wird die russische Sicht der Kiever Sicht die Krim betreffend gegenübergestellt. “Putin behauptet nach der Annexion …” gegen aus “Kiewer Perspektive Russland habe völkerrechtswidrig die Krim annektiert…”. Putin spricht sicher nicht von Annexion, eher Sezession. (Das tun auch andere, siehe z.B. Gabriele Krone-Schmalz in “Russland verstehen”).
  • Seite 14: “Im alltäglichen Gebrauch wird keine der beiden Sprachen (russisch und ukrainisch) diskriminiert.” Falsch – bereits Anfang der 90er Jahre wurde ein Verbot erlassen, auf dem Schulhof russisch sprechen zu dürfen. Später wird im Text dann auch kurz gesagt, dass es doch eine gute Idee gewesen sei, 2012 in einigen Regionen russich als Amtssprache zuzulassen. Doch die Tatsache: “Weniger als zwei Tage nach dem Sieg der Euromaidan-Revolution beschloss das ukrainische Parlament in einer seiner ersten Amtshandlungen der Post-Janukowytsch-Ära mit einer knappen Mehrheit die Aufhebung des Sprachgesetzes” (siehe z.B. https://de.wikipedia.org/wiki/Russische_Sprache_in_der_Ukraine ), faktisch also russisch verboten wurde, wird dagegen nicht erwähnt.


  • Die Schrift ist, wenn Schmid Anekdoten erzählt, interessant. Auch wartet die Schrift teilweise mit Details und Hintergünden auf. Leider macht die Motivation “EU=gut” und “Russland=böse” das Schriftstück zu einem jener (zu Russland inversen) Propagandastücke, die zur Verhärtung der Fronten beitragen, weiter die Sprachlosigkeit der Kontrahenten zementieren und damit eskalierend wirken.

    Antrag auf energieeffizientere Beleuchtung im Eingangsbereich, im Aufzug sowie Ladestationen in der Tiefgarage für E-Mobilität

    Ich stelle folgende Anträge zur Disposition:

    1. Aufzug stromeffizienter machen

    a) Der Otis-Aufzug ist mit zwei Leuchtstoffröhren bestückt. Diese brennen ohne Unterbrechung, auch Nachts. Kann Otis hier LED Röhren einbauen? Können diese LED Röhren intelligent verschaltet werden, z.B. dass sie nur dann angeschaltet werden wenn jemand im Aufzug ist? 99% der Zeit müssten die LEDs nämlich gar nicht an sein. Vielleicht macht eine stets leuchtende Not-LED Sinn, oder ein Knopf zum manuelln Einschalten der Lampe, falls der Aufzug mal hängen bleibt. Die Steuerung über einen Bewegungsmelder wäre zumindest nicht optimal, da dieser selber erheblich Strom benötigt (und dann wieder 99% der Zeit unnötig). Eine Schaltung mit der Türöffnung scheint mir sinnvoll zu sein.

    b) Der Aufzug fährt manchmal selbstständig, ohne dass er gerufen wird. Vielleicht ist das noch eine Art “intelligentes Vorrausschauen, wo sich der nächste Fahrgast befinden wird”, oder eine Art “Testbetrieb”. Kann das abgeschaltet werden?

    Ich mache diese Vorschläge weil der Stromverbrauch des Aufzuges für 9 Wohnung auf 4 Etagen so hoch ist wie für einen Zwei-Personen Haushalt in einer 4-Zimmerwohnung (also: hoch).

    2. Außenbeleuchtung Türbereich: LEDs statt Leuchtröhren, Bewegungsmelder

    Im Eingangsbereich sind 3 Energiesparlampen im Einsatz. Diese sind mit einem Bewegungsmelder gekoppelt. Fährt ein Auto vorbei oder geht jemand auf dem Bürgersteig dort entlang, so schalten sich die Lampen ein und brennen (eine halbe Minute?). Das ist für Energiesparlampen nicht so gut, sie gehen dann schneller kaputt. Vor allem im Winter, wenn es länger dunkel ist, ist die An/Aus Periode hoch.

    a) Der Neukauf und vor allem das Austauschen der Lampen sind hier versteckte Betriebskosten – es geht also nicht nur um eine niedrigere Stromrechnung, wenn diese Lampen durch LEDs ausgetauscht würden. Das Problem beim Austausch ist, dass in der Birnenfassung Energierparlampenvorschaltgeräte bereits eingebaut sind. Es lassen sich also nicht einfach die Birnen durch LEDs tauschen, sondern diese Vorschaltgeräte müssen ausgebaut oder gebrückt werden. THS kann sowas wohl auch machen, sie benötigen aber den Auftrag von der Eigentümergemeinschaft.

    b) Der Bewegungsmelder benötigt ebenfalls Energie, möglicherweise sogar mehr als die LEDs (das müsste mal überprüft werden). Wenn dem so ist wäre es womöglich sinnvoll die Lampen ab Abenddämmerung bis Morgendämmerung durchgehend brennen zu lassen (vielleicht aber auch nicht, weil sich hierdurch die Lebensdauer der LEDs (im Gegensatz zu den Energiesparlampen) erhöht. Zudem ist der Dämmerungssensor in den Bewegungsmelder integriert und ein Ersatz des Bewegungsmelders/Dämmerungssensors zu einem reinen Dämmerungssensor spart vielleicht nicht so viel Energie? Müsste überprüft werden).

    Die Hofbeleuchtung scheint mir hingegen mit den speziellen Halogenbirnen in Ordnung zu sein, sie scheinen auch lange zu halten (geringe Wartungskosten), und haben zudem ein schönes Licht. Es sind glaub ich 75 Watt pro Birne, also ca. 230 Watt/h, im Winter bei 12 Stunden verbrennen also ~ 3 kW pro Tag, also 1 Euro, das ist aufgrund der damit abgedeckten 100 Wohnung gut.

    3. Ladestationen für E-Autos in der Tiefgarage

    Können Ladestationen für E-Autos/E-Motorräder in der Tiefgarage installiertwerden? Ich habe das hier gefunden http://www.dekra-elektromobilitaet.de/de/faq-ladeinfrastruktur . Wie teuer ist es eine Ladestation dort zu installieren?

    Vielen Dank dass Sie sich die Mühe und Zeit nehmen für meine Änderungsvorschläge am Gemeinschaftseigentum.

    Schimmelpilz im Spuelkasten

    tl;dr Die Quelle des feuchten, schimmeligen Geruchs war die Waschmaschine. Die Lösung: einfach den Kasten, wo das Waschmittel eingeschüttet wird, nach jedem Waschgang rausnehmen. Dann entsteht dort kein Schimmel und in der Waschmaschine trocknet das Wassers. tl;dr

    Ein modriger Geruch im großen Badezimmer breitet sich aus dem Spiegelschrank aus. Dahinter ist eine Hohlwand (mit Wasserrohren samt Wasserzähler. Ebenso der Spülkasten der Toilette ist dort versteckt (hinter denm Wasserschalter der Toilette)). Das folgende Foto zeigt den Blick in den Spülkasten des Klos. Er ist ziemlich verpilzt. Dies ist zumindest mitursächlich für den unangenehmen modrigen Geruch (auch nach dessen Entfernung stinkt es immer noch, da aber kein Einblick in die Hohlwand möglich ist und dort aber die Quelle des Geruchs ist habe ich eine Endoskopkamera bestellt. [update:] die Suche mit der Kamera war erfolgslos. Meine Vermutung ist, dass Schimmel zwischen der Außenisolierung des Spülkastens (Styropor) und dem Spülkasten ist. Laut Wikipedia (und ich finde das auch intuitiv) sollte die Isolierung innen sein, nicht außen[update 160716:] Haben eine Kachel entfernt um genauer sehen zu können. Kein Schimmel entdeckt. Hab das Styropor des Wasserspülkastens aufgeschnitten – ebenfalls alles ok.). Der Pilz kann einfach mechanisch entfernt werden (Schwamm, Lappen) und mit einem Schimmelentferner nachbehandelt werden (am Besten ohne Chlor, damit keine evtl. Dichtungsringe angegriffen werden).
    Spuelkasten_Pilz

    Bei dem Schimmel wird es sich wohl um Schwarzschimmel (Aspergillus niger) handeln.

    Den Zugang zum Wasserkasten bekommt ihr so:
    Die Wassertaste ist mit zwei Federn befestigt ist, also muss das gesamte Tastenfeld nach links geschoben und dann abgenommen werden. Um die Verblendung zum Wasserkasten abzunehmen müssen die zwei metallenen Schlitzschrauben rausgedreht werden.

    [update 160716:] Nach Entfernung einer Fließe und weiterer Untersuchungen, u.a ein Mellerud-Pilztest (der nichts auffälliges ergab(auf den sich aber auch nicht so 100% verlassen werden kann)) und einem Hygrometer, interpretiere ich die Situation so:

    1. es riecht etwas komisch hinter dem Spiegelschrank (wohl wegen der komischen Isolierung beim Kaltwasser usw.). Feuchtigkeit scheint es aber nicht zu sein.
    2. Der Wasserspülkasten sollte halt einmal im Jahr oder so gesäubert werden, entkalkt und entpilzt. Im Urlaub würd ich das Wasser abstellen und den Waserkasten leeren. Das sollte den Pilzbewuchs innerhalb des Spülkastens unterbinden.
    3. Die Waschmaschine muss öfter sauber gemacht werden. Vor allem das Wasser nach jedem Waschgang aus dem Dichtungsring der Tür sollte aufgenommen werden. Flußensieb öfter säubern. Waschmittelschublade öfter säubern. Tür/Schublade offen lassen damit es trocknen kann.
    4. Badezimmertür auflassen. Ventilator an beim Baden/Duschen, gerade im Winter! Fenster öfter auf (Blick aufs Hygrometer!)

    Update Oktober 2016:
    Die Quelle des feuchten, schimmeligen “feuchten Lappen”-Geruchs war die Waschmaschine! Die Lösung: einfach den Kasten, wo das Waschmittel eingeschüttet wird und das Wasser der Waschmaschine reinläuft, nach jedem Waschgang rausnehmen. Dann entsteht dort kein Schimmel und in der Waschmaschine trocknet das Wassers. Der Gestank verschwindet :)

    Fahrrad Unfallgefahr in Köln Ecke Lindenstrasse/Aachener Weiher: Litfasssäule

    Vor Kurzem habe ich erlebt, wie an der Litfasssäule in der Lindenstraße vor der Eisenbahnbrücke an der Ecke Hiroshima Park ein Inline Skater mit einem Fahrradfahrer zusammengestoßen ist, wobei der Radfahrer auf die Straße gefallen und ein Auto 20 cm neben seinem Kopf gefahren ist.

    Lindenstraße Litfasssäule Aachener Weiher Inliner Fahrrad Unfall
    Das Bild zeigt die gefährliche Unfallstelle. Der große rote Kreis zeigt die Stelle des Zusammenstoßes , der kleine rote Kreis markiert die Stelle wo der Radfahrer auf der Straße lag.

    Der Weg, auf dem dieser Zusammenstoß stattfand, ist sowohl für den Radweg freigegeben als auch für Fußgänger. Es gibt keine rote Markierung auf dem Weg, sodass ein Radfahrer nicht weiß, ob er links oder rechts neben der Litfasssäule vorbeifahren soll. Viele entscheiden sich für links, da sie dort ein etwas größeres Blickfeld haben um zu sehen, wie die Situation ein paar Meter vor ihnen aussieht. Inline Skater oder Fußgänger wissen ebenfalls nicht, ob sie links oder recht an der Litfasssäule vorbeigehen sollen.

    Diese Stelle ist eine tödliche Falle, da die Litfasssäule ein vorausschauendes Fahren unmöglich macht. Wie kann die Verkehrspolizei dies freigeben? Hier muss sich was ändern, bevor es zu einem schweren Unfall kommt. Möglichkeiten:

    a) Litfasssäule demontieren
    b) Bürgersteig mit roter Farbe für den Fahrradweg markieren
    c) “Fahrrad verboten” Schild aufstellen und den Radverkehr auf die Straße lenken

    Hier die Karte mit Marker für die Einordnung:

    View Larger Map

    Ich werde diesen Beitrag an fahrradblogger.de melden und an die Polizei (wobei ich dort keine wirklich passende Kontaktadresse gefunden habe).

    Meltem-Ventilator

    tl;dr: TRIAC(das schwarze Teil mit den 3 Beinen) brücken – allerdings nur Pin 1 und Pin 2 brücken, dann läuft der Lüfter sobald er Strom hat (Klemme N und 1, Licht ist dann egal).

    Abstract

    Die Meltem Lüfter gehen kaputt. Sie lassen sich aber reparieren.

    Mein momentaner ehemaliger Stand: Lüfter geht ca. 6 Minuten durchgehend und schaltet sich dann selbst ab. Nach einer Stunde oder so kann er wieder für 6 Minuten arbeiten.

    WICHTIG!
    Bitte nicht als Laie am Strom arbeiten, es besteht LEBENSGEFAHR!
    Den Schalter ausstellen reicht nicht – ein Kabel hat Dauerphase.
    Auf der Platine ist ein Kondensator, der theroretisch 230V*Wurzel(2) an Spannung tragen kann, auch wenn er abgeklemmt ist. Das kann böse schaden!
    Immer vorher die Sicherung rausmachen!
    NOCHWAS: Die Lüfter sind in der Nähe von Wasser (Dusche, Badewanne). Da müssen die Stromsachen sehr gut isoliert sein, sonst besteht auch nach der Installation LEBENSGEFAHR!

    Vielleicht ist dieser Blogpost interessant als Diskussionsgrundlage mit einem Elektriker ob/wie sich die Lüfter günstig weiterverwenden lassen.

    Beobachtung

    Viele (alle?) Meltem Badezimmerlüfter mit Nachlüfter ( V-60 N ) sind kaputt gegangen. So nach 7 Jahren. Am Ende alterniert der Lüfter alle paar Sekunden zwischen an/aus und hat keine Leistung mehr.

    Ursache

    Vermutlich wurde der Staubfilter nicht gesäubert resp. ausgetauscht. Aus der obigen Meltem Anleitung:

    Wir empfehlen einen Filterwechsel ca. alle 2 Monate.
    Erfolgt kein rechtzeitiger Filterwechsel, sinkt die Leistung
    sowie die Lebensdauer des Gerätes und es entfallen alle
    Gewährleistungsansprüche.

    Wurden Sie auch nicht darüber unterrichtet vom Bauträger oder der Verwaltung?

    Ausserdem ist die Schaltung auf der Platine anscheinend ziemlicher Mist, da die Bauteile dauerhaft strapaziert werden und deshalb (relativ zur Lebensdauer des Motors viel zu früh) kaputt gehen müssen.

    Reparieren der Platine

    Hier hat jemand das gleiche Problem. Das wahrscheinlichste ist, der Kondensator (Elko) 220µf muss ausgetauscht werden, das ist alles. Ich habe das versucht und verschiedene alte Kondensatoren in Reihe gelötet, um ungefähr auf die Werte des Original-Kondesators zu kommen. Das hat bei mir aber nicht geholfen.
    Hier noch ein paar weitere Tipps (die ich aber selber nicht ausprobiert habe):

    Du hast jetzt verschiedene Möglichkeiten.
    1.1- Elektronik beiseite legen und den 2,2µF berührungsgeschützt mit den motorleitungen verdrahten (Schrumpfschlauch, kleines Gehäuse).
    1.2- Elektronik beiseite legen und einen der oben genannten 2,5µF Motorkondensatoren mit Leitungen kaufen und einbauen.

    Die Lösung in dem Post sieht so aus:

    …die Kondensatoren wieder eingelötet (den Elko nicht), das Netzteil außer Kraft gesetzt (die drei Widerstände entfernt) und den Triac durch den Schaltaktor ersetzt. Der Lüftermotor springt sauber an und hält die Nenndrehzahl dauerhaft. Vom Schaltaktor abgesehen gibt es keine Ruheleistung mehr und keine Bauteile, die dauerhaft strapaziert werden.

    Betreiben ohne Platine
    So mach ich das jetzt. Die Platine und die Elektronik ist verkorkst. Die Nachlüftungsfunktionalität mit dem verzögerten Anlauf empfand ich zudem anfangs als recht verwirrend und hät gern drauf verzichtet. Ich will doch bloß einen möglichst langlebigen, einfachen Lüfter!
    Die Platine lässt sich tatsächlich rausnehmen und der Motor direkt anschließen.

    meltem_motor Das Bild zeigt den Meltem Motor und die neue, direkte Verkabelung, die auf die Platine verzichtet. Damit das mit der Schaltung direkt startet muss das braune und das schwarze Kabel zusammen in den braunen Anschluss (also anders als das Bild zeigt, siehe Text unten).

    Vornweg:
    Mit der Schaltung bin ich noch nicht fertig. Die Lösung ist jetzt eher eine Notlösung bis ich das am Schalter richtig verdrahtet habe.

    Zwischenlösung:
    Wenn die Phasen (braunes und schwarzes Kabel) zusammen an das braune Kabel angeschlossen werden und neutral (“N”, das blaue Kabel) an das blaue dann kann der Lüfter direkt zum Starten gebracht werden. Er läuft zwischen 4 und 6 Minuten (abhängig davon ob die Lüftungsklappe ausgehängt wird (das ist die kleine Feder an der Lüftungsrohrklappe. Wird von Meltem auch empfohlen, wenn der Motor mit starker Leistung betrieben wird. Wohl, weil dadurch die Leistung auch noch mal steigt (es muss ja nicht Energie aufgewendet werden um die Luft nach draußen durch die Klappe zu pressen) ) ) und schaltet sich dann wegen Überhitzung von selbst ab (der Meltem Motor wiederum ist sehr gut, der geht nicht so leicht kaputt!).

    Wenn die Kabel ihrer Farbe entsprechend (schwarz auf schwarz, blau auf blau, braun auf braun) abgeschlossen werden, dann brummt der Lüfter (wegen der Dauerphase (ein Kabel ist ständig geschaltet, sowie das neutrale Kabel)), er kann aber nicht von selbst starten. Dazu muss er mit der Hand angeschubst werden. Das liegt wahrscheinlich daran dass jetzt der Kondensator fehlt, der erstmal genug Spannung zum Starten aufbaut. Blöd dass das notwendig ist.

    Es müsste doch auch mit reinen Kabelschaltungen und Mechanik gehen?
    Wahrscheinlich wird dafür ein anderer Schalttaster benötigt, so ein geteilter. Da stell ich mir vor dass der eine Taster die eine Phase schaltet und der andere eben die andere. So , dass der jetzige Zustand hergestellt ist. Dadurch startet der Lüfter. Dann muss ein Schalter wieder ausschalten, sodas nur noch eine Phase aktiv ist (der Lüfter läuft mit einer Phase (wenn er den erstmal gestartet ist ;) ) ). Wäre ein bisschen umständlich beim Tastenschalten, find ich aber nicht schlimm wenn das dann langlebiger ist.

    Tastenschalter_Meltem

    Fazit

    Für 30 Cent (Lüsterklemme) und Arbeitszeit lässt sich ein halbwegs funktionierender Lüfter herstellen. Da das Ding heiß wird verbraucht es unnötig Strom. Wenn das 200 Watt sind (geschätzt) und der Lüfter dreimal am Tag für 6 Minuten an ist sind das 200Wh/3.3, also 0,06kWh per Tag, also ca. 1kWh alle 16 Tage oder 60 Cent im Monat für einen Lüfter.

    Ja, und jetzt bin ich natürlich gespannt, ob hier jemand eine Lösung für die Tastenschaltung hat oder eine andere Idee.

    [update Ende 2015]: Die etwas umständliche Tastenschaltung ist umgesetzt. Sie funktioniert bereits ein Jahr reibungslos.

    Zwei neue Ventilatoren für jeweils 159,- zu kaufen bin ich jedenfalls unwillig. Vor allem – wer weiß wie lange die dann halten?

    Deploying to travis results in error in opening zip file

    using java and maven

    Once deploying in travis resulting in corrupt jars, for example by using maven 2.2.1 (which does not following 301 redirects; if you look at the .pom or jar that are downloaded into your local repository, you will see the 301 HTML that was delivered from the server), these jars seems to be cached by travis. They can be removed in the travis local .m2 directory, but when fixing the problem and deploying anew, the cached corrupt jars will be “downloaded” into the local .m2 and results in the same error. Waiting a day or so, this cache seems to be updated so that the travis errors “error in opening zip file” disappear at least.

    Inline Skates in Koeln kaufen

    Inliner in Koeln – wo sind die Shops ?

    Inline Skates kaufen in Köln – eine große Auswahl hat galeria-kaufhof.de. 5 Sterne. Bewertet von: dr0i am 10. März 2014.

    Die kompetenteste Beratung gibts beim kölnbekannten muskelkatersport.de,
    wo ich auch zuerst hingegangen bin. Interessanterweise, entgegen der
    Aussagen auf den Seiten von muskelkater (aber nach eigener Erfahrung
    genau richtig), hat mir der Berater empfohlen Inline Skates sogar eher
    lieber eine halbe Nummer kleiner zu kaufen als zu groß. Das hat mit der
    etwas gebückten Haltung beim Skaten zu tun, dadurch dass beim Fahren ein
    bisschen in die Knie gegangen wird rutscht der Fuß nach hinten – wobei
    vorne an den Zehen mehr Luft ist. Ein möglichst passgenauer Skate ist
    aber wichtig für möglichst gute Fußhabung beim Skaten. Alas -  die
    Auswahl im Laden ist so beschränkt dass in meiner Größe gar nichts da
    war – auch nicht nach 3 Wochen Wartezeit und einigen Telefonaten, ob
    nicht doch noch was in meiner Größe eintrudelt.

    Also bin ich in die kölner Filiale von sportscheck.com.
    Die Auswahl war wiederum sehr klein – wieder nichts in meiner Größe !
    Denn nicht alle auf ihrer Internetseite angegebenen Skates sind
    tatsächlich auch in der kölner Filiale. Die Beraterin war aber sehr nett
    und sagte, dass ihr Kunden gesagt hätten, dass bei Kaufhaus direkt
    gegenüber eine große Auswahl vorhanden wäre. Danke nochmal für den
    Tipp !

    Und im galeria-kaufhof.de
    bin ich endlich doch in Köln fündig geworden! Eine ziemlich große
    Auswahl, und dazu noch ein sehr netter und gar nicht mal inkompetenter
    Verkäufer (auch wenn er so aussah als ob er niemals selbst Inliner
    gefahren wäre). Im Laden lässt sich zudem prima Probefahren.

    Fazit: die Internetsuchmaschinen wissen vielleicht, wo es die
    billigsten oder besten Inliner gibt. Sollen die Produkte aber in einem
    Laden Deiner Stadt sein, dann macht sich die Kompetenz beim Search
    Engine Optimizing ausserordentlich bemerkbar. Ich hoffe, dieser
    Blogbeitrag kann das ein bisschen zurechtrücken :)

    1 2 3