Informationsquellen
Empfehlenswerte Literatur zum Thema Information:- Haken, Hermann; Haken- Krell, Maria: Entstehung von biologischer Information und Ordnung. Dimensionen der modernen Biologie Bd.3. 1989.X, 218 S. m. 68 Abb. 23 cm. Gebunden. 506gr. ISBN 3-534-02533-4 , KNO-NR: 3 49 33 65- WISSENSCHAFTLICHE BUCHGESELLSCHAFT-42.00 DM -
- sehr gutes Buch
- Stonier, Tom: Information und die innere Struktur des Universums. 1991. 97 S. m. 4 Abb. 23,5 cm. Kartoniert. 181gr. ISBN 3-540-53825-9 , - SPRINGER, B.- 48.00 DM - Ladenpreis aufgehoben.
- sehr lesenswert
- gibt es nur noch auf Englisch, aber leicht lesbar
- Stonier, Tom: Information and Meaning. An Evolutionary Perspective. 1997. XIII, 255 p. 23,5 cm.
- auf Englisch trotzdem leicht lesbar und sehr lesenswert
- auf Englisch trotzdem leicht lesbar und sehr lesenswert
- Wolfgang Salm,
- Entropie und Information (naturwissenschaftliche Schlüsselbegriffe),
- 1997, ISBN 3-76141969-4
- Aulis Verlag
- sehr gutes Buch, da sehr verständlich geschrieben
- Informationstheorie. Eine philosophisch-naturwissenschaftliche Einführung
- Holger Lyre
- Fink, München, 2002
- UTB für Wissenschaft; Band 2289
- Das Phänomen "Information" prägt entscheidend unsere moderne, hochtechnisierte Lebenswelt. Was aber ist Information? Wie lässt sich Information begrifflich oder formal beschreiben? Für wen oder was existiert sie? Gibt es absolute Maßangaben von Information? Und was ist Informationsfluss? Bei einer philosophisch-naturwissenschaftlichen Einführung in die Informationstheorie stehen begriffliche Fragen dieser Art im Vordergrund. Dabei kommt den drei großen Themenfeldern der heutigen empirischen Wissenschaften spezielle Aufmerksamkeit zu: die Struktur von Materie und Raum-Zeit in der Physik, die Entstehung des Lebens in der Biologie und das Gehirn-Geist-Problem in den Kognitions - und Neurowissenschaften erlauben jeweils eine enge begriffliche Anbindung an das Informationskonzept. Als interdiziplinäres Brückenkonzept ermöglicht es die Diskussion und Analyse philosophischer Grundlagenfragen verschiedener Fachgebiete unter gemeinschaftlichem Blickwinkel. Somit bietet das Buch einen Einstieg in die weitverzweigten Anwendungen des Informationsbegriffs und der Informationstheorie sowohl für Geistes- wie Naturwissenschaftler.
- Sehr lesenswert
- DTV Taschenbücher Bd.4660
- Weizsäcker, Carl Fr. von: Die Einheit der Natur. (dtv Wissenschaft). 1995. Kartoniert. 297gr.
- ISBN 3-423-04660-0 , 29.90 DM -
- Kapitel I,2 und III von C.F.v. Weizsäcker
- das Buch ist etwas "uneinheitlich" geschrieben und nicht leicht lesbar !
- Quantentheorie der Information.
- Lyre, Holger:
- Zur Naturphilosophie der Theorie der Ur-Alternativen und einer abstrakten Theorie der Information. Diss. Mit e. Geleitw. v. C. F. von Weizsäcker. (SpringerPhilosophie). 1998. XV, 267 S. m. 8 graph. Darst. 24,5 cm. Kartoniert. 548gr.
- ISBN 3-211-83204-1, KNO-NR: 07 73 72 84
- SPRINGER, WIEN-
- Shannon, Claude E.: Ein / Aus. Schriften zur Nachrichtentheorie. Nachw. v.
- Friedrich Kittler. 1998. 304 S.. Gebunden.
- ISBN 3-922660-68-1 , KNO-NR: 6 90 33 36
- BRINKMANN U. BOSE-
- Elements of Information Theory.
- Cover, Thomas M.; Thomas, Joy A.:
- 1991. XXIV, 542 p. 24,5 cm. Gebunden. 978gr.
- ISBN 0-471-06259-6, KNO-NR: 09 40 72 94 -WILEY & SONS-
- Information and Coding Theory.
- Jones, Gareth A.; Jones, Josephine M.:
- Springer Undergraduate Mathematics Series (SUMS). 2000. XIII, 210 p. w. 31 figs. 23,5 cm. Kartoniert. 380gr.
- ISBN 1-85233-622-6, KNO-NR: 09 21 60 84
- This book provides an elementary introduction to 'Information Theory' and 'Coding Theory' - two related aspects of the problem of how to transmit information efficiently and accurately. The first part of the book focuses on 'Information Theory',covering uniquely decodable and instantaneous codes, Huffman coding, entropy, information channels, and Shannon's Fundamental Theorem. In the second part, on 'Coding Theory', linear algebra is used to construct examples of such codes, such as the Hamming, Hadamard, Golay and Reed-Muller codes. The book emphasises carefully explained proofs and worked examples; exercises (with solutions) are integrated into the text as part of the learning process. Only some basic probability theory and linear algebra, together with a little calculus (as covered in most first-year university syllabuses), is assumed, making it suitable for second- and third-year undergraduates in mathematics, electronics and computer science.
- This book provides an elementary introduction to 'Information Theory' and 'Coding Theory' - two related aspects of the problem of how to transmit information efficiently and accurately. The first part of the book focuses on 'Information Theory',covering uniquely decodable and instantaneous codes, Huffman coding, entropy, information channels, and Shannon's Fundamental Theorem. In the second part, on 'Coding Theory', linear algebra is used to construct examples of such codes, such as the Hamming, Hadamard, Golay and Reed-Muller codes. The book emphasises carefully explained proofs and worked examples; exercises (with solutions) are integrated into the text as part of the learning process. Only some basic probability theory and linear algebra, together with a little calculus (as covered in most first-year university syllabuses), is assumed, making it suitable for second- and third-year undergraduates in mathematics, electronics and computer science.
- Siegfried, Tom: The Bit and the Pendulum.
- From Quantum Computing to M Theory - The New Physics of Information. 2000. VI, 281 p. 22,5 cm.
- Kartoniert. 370gr. ISBN 0-471-39974-4, KNO-NR: 09 29 00 61 -WILEY & SONS-
- 19.43 EUR -
- Information ist alles - Alles ist Information! Der erfolgreiche populärwissenschaftliche Autor Tom Siegfried vertritt in diesem aufregenden und unterhaltsamen, dabei fachlich exakten Band seine radikal neue Theorie: Die Materie besteht nicht aus Elementarteilchen, sondern aus Informationseinheiten! Wird man in naher Zukunft Objekte teleportieren können? Leiten superschnelle Quantencomputer eine neue Revolution der Informationstechnik ein? Ist unser Universum nur eines unter unendlich vielen anderen? Dieser und einer Fülle weiterer bewegender Fragen widmet sich der Autor in lebendiger, engagierter Weise.
- ==> Kommentar : Und hier ist wieder die Gretchenfrage . To bit or not to bit, that is the Question.
- Gab es bis zum Jahr 2000 im deutschsprachigen Raum nur wenige Seiten die sich genauer mit dem Begriff Information beschäftigten, so sind seitdem eine Reihe von recht guten Seiten dazugekommen.
- http://generalit.de/ Jürgen Viestenz, 1998...2001
- http://www.ib.hu-berlin.de/~wumsta/infopub/textbook/umfeld/rehm.html +++
- Information und Kommunikation in Geschichte und Gegenwart
- von Margarete Rehm
- sehr ausführliche Zusammenstellung
- http://is.uni-sb.de/diskussion/reader/gesell/gesell6/index.html
- "Was ist und wie entsteht Informationsarmut und Informationsreichtum?"
- http://www.capurro.de/infovorl-kap1.htm+++
- Der Informationsbegriff in der Informationswirtschaft
- http://stud4.tuwien.ac.at/~e9426503/soinfoges/einleitung.html
- Christian Fuchs - Einleitung: Soziale Information und Selbstorganisation
- Was bedeutet Information in sozialen Systemen? Welche Selbstorganisationsmöglichkeiten gibt es in der Gesellschaft?
- http://stud4.tuwien.ac.at/~e9426503/infoso/einheitinfo.html ***
- Ein einheitlicher Informationsbegriff für eine einheitliche Informationswissenschaft
- http://beat.doebe.li/bibliothek/w00021.html
- Seite aus dem recht anregenden Biblionetz von Beat Döbli
- http://goethe.ira.uka.de/redundanz/vortrag01/
- Grundlagen der Informationstheorie
- http://www.lucent.com/minds/infotheory/
- Englische Seiten der Firma Lucent über die Informationstheorie
- http://www.uni-hildesheim.de/~chlehn/artikel/isko/info_theorie_isko99.htm
- Holistische Definition von Information
- http://www.ifi.unizh.ch/CL/volk/LexMorphVorl/Lexikon08.IR.html
- Informationslinguistik
- http://www.mathematik.uni-bielefeld.de/ahlswede/itlinks_f.html
- Linkliste zum Thema Informationstheorie
- http://carbon.cudenver.edu/~mryder/itc_data/semiotics.html
- Semiotikseite Semiotik = Zeichenkunde
- http://www.itsoc.org/
- Gesellschaft der Informationstheorie
- Gesellschaft der Informationstheorie
- Entropie, Ordnung, Unordnung, Zufall, Redundanz, Codierung, Kybernetik, Nachricht, Signal, Schrift, Daten
- Sprache, Digital, Analog, Wahrscheinlichkeit, Beschreibbarkeit, Chaos, Neubildung von Information, Kompliziertheit, Komplexität, Struktur, Form, Faltung, Software, Hardware,
- Steuerung, Botschaft, Abbildung, Kopieren, Repräsentation , Wissen etc.
- Info-Flut and Info-Garbage = Informationsflut , Informationsmüll
- die Natur hat den Urknall knallen lassen
- die Natur hat die Kristallisation erfunden
- die Natur hat den genetischen Code erfunden
- die Natur hat die Sinneszellen erfunden
- die Natur hat die Nervenzellen erfunden
- die Natur hat das Gehirn erfunden
- die Natur hat das Bewusstsein erfunden
- die Natur hat die Sprache erfunden
- Der Mensch hat die Schrift erfunden
- Der Mensch hat die Zahlen erfunden
- Ein Mensch hat die Zahl Null erfunden
- Ein Spielender Mensch hat das Losen mit Münzen erfunden.
- Ein Mensch namens Gutenberg hat den Buchdruck erfunden.
- Shakespeare hat das binäre Existenzsproblem formuliert: Sein oder Nichtsein ?
- Leibniz hat das binäre Zahlensystem eingeführt.
- Morse hat das Morsealphabet eingeführt.
- Shannon = Messung der Information in Telefonleitungen.
- Felix von Cube und Wiener = Weiterentwicklung der Informationstheorie.Begründung der
- Kybernetik = Steuerungs und Regelungswissenschaft.
- von Neumann hat die Prinzipien von heutigen Computern beschrieben
- Konrad Zuse hat den ersten Computer gebaut
- Boltzmann hat die Entropie molekular angewendet
- Meyer hat den 2 Hauptsatz der Thermodynamik aufgestellt.
- Schrödinger hat den Begriff Negentropie eingeführt
- Charles Sanders Peirce (1839-1914), und Ferdinand de Saussure (1857-1913).Begründer der Semiontik
- Bertalanffy hat die Lebewesen als offene Systeme betrachtet,und damit die Strukturentstehung erklärbar gemacht, entgegen der Tendenz zur allgemeinen Strukturnivellierung
- Prigogine hat den Begriffe dissipative Strukturen eingeführt
- E.v.Weizsäcker hat den Begriff der pragmatischen Information eingeführt.
- von Haken hat die Begriffe Ordner und Versklavung eingeführt. Begründer der Synergetik.
- Herr Stonier hat den Informationsbegriff ordentlich durchdacht und neu in Beziehung zur Entropie und Energie gesetzt.
Eine sehr schöne und sehr ausführliche Zusammenstellung findet sich hier:
http://www.ib.hu-berlin.de/~wumsta/infopub/textbook/umfeld/rehm.html***
- Information und Kommunikation in Geschichte und Gegenwart
- von Margarete Rehm
- Die großen und meist noch ungelösten Fragen der allgemeinen Informationstheorie:
- Gibt es Infonen ? Gibt es Informationsteilchen ? Gibt es die Uralternativen ?
- Gibt es Information ohne Informationsträger ?
- Wie ist der Zusammenhang zwischen Entropie und Information am besten zu beschreiben ?
- Wie entsteht bedeutsame Information ohne menschliches Zutun ? Gibt es für bedeutsame Information ein einheitliches Maß ?
- Wie entsteht und wie arbeitet ein Informationsverarbeitendes System z.B. eine lebende Zelle von alleine ?
- Wie entsteht und wie arbeitet ein Informationsverarbeitendes System mit Bewusstsein wie z.B. unser Gehirn ?
- Werden Computer denken können ?
- Wie hoch war die Entropie und die Information beim Urknall ?
- Was passiert mit der Information am Rand von schwarzen Löchern ?
- Sollte man noch einmal zwischen semantischer und pragmatischer Information unterscheiden ?
- Was ist der Unterschied zwischen potentieller Information und aktueller Information ?
- Kann die Informationsmenge negative Werte annehmen ?
- Wie kann man die Gegensätze von Ordnung und Unordnung, von Entropie und Negentropie verständlich machen ?
- Wie entsteht bedeutsame Information von alleine ?
- Woher kommt das Wort Information?
- Welche Bedeutung hatte das Wort Information früher ?
- Welche anderen Wörter hat man anstatt des Wortes Information benutzt ?
- Welchen Bedeutungswandel hat das Wort durchgemacht ?
- Welche Worte gibt es in anderen Sprachen für den Begriff Information?
- Lateinisch informatio = Bildung,Belehrung
- Englisch information
- Griechisch eidos
- Französisch l'information
- Japanisch
- Chinesisch
- Arabisch,
- Indisch,
- Indianisch,
- Wie kann man das Altern von Information in Datenbeständen vermeiden ?
- Wo bekommt man gute Informationen her ?
- Stimmt folgende Definition ?
- Information ist das, was man noch nicht weiß, aber wissen möchte.
- Alles, was schon weiß oder vorhersagen kann, ist keine Information mehr.
- Wie bewertet man die Informationsqualität von Webseiten