Diskussion:Information

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 27. August 2002 um 13:13 Uhr durch Rho (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen

Sehr (!) gehaltvoll. Ein ganzes Kompendium!

Das "Bild" "heilige Dreieinigkeit" fällt aus der geballten Information heraus. Ein gewollter oder ungewollter Kalauer? Das so für sich recht absonderlich wirkende Schema sollte begründet oder durch einen Sachtext ersetzt werden. --Wst


Mit dem Bild will ich andeuten, daß auch die Naturwissenschaften auf Basisdogmen (Basisaxiome) aufbaut , die teilweise nur schwer erklär- und verstehbar sind. Vergleiche zb die Abgrenzung von

Entropie - und Information , meines Erachtens ein ziemlich ungeklärtes Verhältnis. Gleichzeitig die Basis vieler Aussagen in der Physik und Naturwissenschaft.


Außerdem soll Wikipedia m.E. auch nicht so toternst sein. Gerade die Definition von Information ist ja eher trocken . Da ist ein bißchen Provokation mit dem Begriff heilige Dreieinigkeit zum Aufwachen vielleicht ganz gut.


Wenn es auf allgemeines Mißfallen stößt kann ich das Bild auch ändern.

Siehe auch http://home.t-online.de/home/0926161717-0001/definfo.htm Mfg rho


Mich stört mehr, dass diese Dualität von Materie und Energie schon nicht stimmt. Materie ist in der Naturwissenschaft nichts anderes als eine Form der Energie. Und die Rolle der Information ist ziemlich umstritten, d. h. man kann vermutlich gar nicht mehr tun, als eine schwammige Meinung dazu zu präsentieren, aber es ist problematisch, das wie eine Lehrmeinung darzustellen. IMHO -- HelmutLeitner


Im allgemeinen ist Materie und Energie grundverschieden , nur in der Sonne kann Materie in Energie verwandelt werden. Deswegen halte ich es schon für richtig Energie und Materie einander gegenüberzustellen.

Energie kann sich zb mit Lichtgeschwindigkeit ausbreiten , Materie nicht.


Beim Thema Information sind die Akten noch nicht geschlossen . Es ist unklar, ob es eigenständige Infonen , Uralternativen also Informations"teilchen" geben kann.

Da wird noch viel gestritten und geforscht.

Für unser Alltagsverständnis stimmt das Dogma :

Reine Information gibt es nicht . Information gibt es immer nur im Zusammmenhang mit Energie und Materie.

Übrigens kann man das naturwissenschaftliche Dreigestirn auch noch anders bezeichnen:

Stoff -- Strahlung -- Struktur


Man sollte sich immer in Erinnerung rufen , daß diese physikalischen Begriffe sich nur sehr langsam herausgeschält haben.

Bis ca 1850 war zb die Unterscheidung zwischen Kraft und Energie noch nicht vollzogen und Anlaß für viele Mißverständnisse.


Im 20.Jahrhundert ist als fundamentale Größe eben noch die Information dazugekommen. Diese Größe hat aber in der Physik bis heute noch keinen so richtigen Platz gefunden .

Über den Zusammenhang zwischen Information und Entropie wird da auch noch heftig diskutiert.


Mfg rho


Wenn "die Akten noch nicht geschlossen" sind, und "noch viel gestritten und geforscht" wird, so sollte das aber im Artikel klargemacht werden.

Ich bin der Ansicht, dass der Artikel viel 'Spekulation' und 'Ideen', aber nicht 'Ergebnisse der Wissenschaft' enthält.

Die Tatsache, dass physikalische Begriffe lange unklar definiert waren, verlangt ja geradezu, hier auch bei der Information besonders vorsichtig zu sein, um eben nicht Dinge, die noch nicht wohldefiniert sind, hier so darzustellen, als ob sie wohldefiniert seien.


Ausserdem ist mit nicht bekannt, in welcher Wissenschaft die 'Information' eine fundamentale Größe sein soll.

Die von Dir oft angeführte Beziehung zur Entropie ist vielleicht in der populären Darstellung der Physik verbreitet, wird aber in der Physik selbst nicht benutzt.

Ich sage mal bewußt provokativ: "Information' ist nur ein leeres Schlagwort, das in vielen Bereichen benutzt wird, aber nirgends definiert ist.


Wenn Du z.B. schreibst:

"In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information",

dann finde ich das eine leere Definition. Ein vager Begriff (Information) wird durch einen anderen vagen Begriff (Struktur) definiert.


Wenn ich (um Masse zu definieren) schriebe,

"In jeder Art von Materie steckt Masse",

dann ist das auch nicht definierend.


Ich finde Deinen Zugang, hier riesige Artikel abzuladen, sehr problematisch:

Warum beginnst Du nicht klein, und erlaubst uns auch unsere Ideen einzubringen.

Die Wikipedia soll doch ein Gemeinschaftsprojekt sein, und ich zumindest finde solche langen, kontroversen Artikel nicht der Idee einer Gemeinschaftsarbeit förderlich.


-- Schewek


Hallo Schewek !

Ich beschäftige mich schon ziemlich lange mit dem Begriff Information und habe dazu einige Arbeitstexte ins Internet gestellt.

Das der Begriff Information grundlegend ist , kann man bei vielen Leuten nachlesen

  • zb Weizsäcker
  • zb Shannon
  • zb Wiener
  • zb von Haken


Typisch für die Naturwissenschaften ist , daß sie eine vage Idee von etwas hat und dann anfängt damit zu arbeiten. Sie kümmert sich zunächst nicht um genaue Definitionen .

Wir leben im "Informationszeitalter" und haben nur eine vage Vorstellung von dem Begriff , der dem zu Grunde liegt. Dem wollte ich mit meinem Beitrag etwas abhelfen.


Das interessante an dem Begriff Information ist , daß er an der Grenze der Naturwissenschaften zur Mathematik , bzw auch zu den Geisteswissenschaften steht.

Auch die Mathematik hat Probleme grundlegende Begriffe sauber zu erklären. Frage mal einen Mathematiker, was ein Punkt ist . Jeder Schüler arbeitet damit , hat eine intuitive Vorstellung davon , aber eine saubere Definition ist schwierig.

So eine saubere Definition hört sich dann auch ein bißchen tautologisch an .

Siehe dein Beispiel mit der Materie und der Masse.


Wenn dich die Länge meines Beitrages stört , dann lösch ihn wieder heraus . Ich fände es schade, da viel Mühe in meinem Beitrag steckt, aber ich kann dich nicht dran hindern.

Besser wäre es , den Artikel wirklich durchzuarbeiten und zu überlegen , wo noch Widersprüche und

Unklarheiten zu finden sind, die man verbessern kann.


Oder du versuchst dich mal an anderen Begriffen , wie zb Bedeutung oder Ordnung , die eng verwandt mit der Definition der Information sind , aber m.E. in Wikipedia noch zuwenig beackert wurden

Mfg rho


Danke, Rho, für das Beispiel mit dem Punkt! Genau was ich brauchte: Ein Punkt ist jedem Schüler 'bekannt', in seinem 'Erfahrungsbereich' oder 'Zusammenhang'. Ein Mathematiker kann dir genau sagen, wenn er einen Beweis führt oder ein Theorem formuliert, was ein 'Punkt' in genau dem Zusammenhang bedeuten soll. Er gibt die Definition für den konkreten Fall (zB Punktmenge, Vektorraum, ...) an, und schafft damit einen Bedeutungszusammenhang, so dass er ein sinnvolles Gespräch mit dem Kollegen führen kann. Und genau dieser Zusammenhang ist es, was ich in Deinem Artikel vermisse! Ich habe leider auch nur vage Kenntnisse dazu, was zZ in den verschiedenen Wissenschaften zum Thema Informatik geforscht wird. Aber wenn zB Shannon den Begriff gebraucht, so geschieht das in einem Zusammenhang. Wenn Du solche Hinweise geben würdest, wäre Dein Artikel einem interessierten Laien viel zugänglicher; ausserdem natürlich dann auch Ausgangspunkt zu anderen Artikeln in der Wikipedia.


-- Schewek



Probier doch einmal eine Definition des Begriffes Punkt für Wikipedia . Es ist gar nicht so einfach.


Wenn man bei Shannon zum Thema Information nachliest , dann findet man da auch keine allzu tiefschürfende philosophische Abhandlung , sondern er setzt einfach Information gleich der Entropie und fängt fröhlich damit zu rechnen an.

Für sein Gebiet der praktischen Nachrichtentechnik ist das ganz brauchbar. Gleichzeitig hat er aber eine seit 50 Jahren währende Diskussion über das Verhältnis zwischen Information und Entropie losgetreten , die bis heute noch nicht befriedigend zu Ende gekommen ist.

Die Grundfrage lautet dabei : Was unterscheidet geordnete Information von Zufallsinformation ?


Meinen Beitrag zum Thema Information, der ja auch nach deiner Meinung schon viel zu lang ist ,

wollte ich durch ausführliche Quellenangaben nicht noch länger machen .

Aber du hast recht, vielleicht füge ich ich noch einen Verweis Information/Quellen an . Dann wird das ganze vielleicht etwas klarer.

rho


Das ist ja ein bunter Reigen zum Thema Information. Insgesamt eben ein vielschichtiges Thema. Ich würde auf der obersten

Ebene vielleicht etwas weniger schreiben. Die Aussagen zu Energie und Materie z.B. weglassen. Mit einer wirklichen Definition beginnen, oder eben schreiben, daß es eine solche nicht gibt. Außerdem stört mich die fehlende Trennung zwischen Daten und Informationen. Bei der Kurzzusammenfassung der Shannonschen Informationstheorie fehlt ein Verweis

auf Shannon, obwohl dieser dann durchaus in den Quellenangaben genannt wird. Hmmm ... werde mich vielleicht in den nächsten Tagen da mal etwas einbringen :o) Markus Schaal



Hallo!

Die Verbindung zur Energie und Materie habe ich deswegen gebracht , weil es m.E. die 3 grundlegenden Begriffe der Naturwissenschaften sind, die in vielfältiger Weise miteinander verknüpft sind .

Man sie auch anders bezeichnen : Strahlung - Stoff und Struktur.

Jeder soll eben auch einmal selber nachdenken, was für ihn die Basisbegriffe sind, auf die er seine Vorstellungen von der Welt aufbaut.


Der reine Materialismus hat ja immer nur Energie und Materie als grundlegend zugelassen , mit dem

Begriff Information ( oder Struktur,Muster etc) kommt es aber zu einer entscheidenden Erweiterung des naturwissenschaftlichen Denkens, auch wenn sich zb die Physik dem Begriff Information noch nicht so klar geöffnet hat.


Auch wenn die Definition eines solchen grundlegenden Begriffes schwierig ist, sollte man sie trotzdem versuchen . Ich habe das mit den Basisaussagen zur Information versucht.


Der Text ist ein Anfang und eine Diskussionsanregung , kein abgeschlossenes Thema. Verbesserungen und Diskussionsbeiträge sind sehr willkommen.


Daten und Information hängen eng zusammen .

Vielleicht kann man Daten als Informationseinheiten bezeichnen .


Sehr interessant finde ich die Frage, wie bedeutsame Information entsteht und wie sich Zufallsinformation von geordneter Information unterscheidet.



rho


Ich würde die Definition etwa so beginnen: Im heutigen Verständnis setzen sich Informationen aus Struktur und Bedeutung zusammen. Die Struktur der Information "Es ist heiß" wäre beispielsweise die Abfolge der Zeichen "E","s"," ","i", usw.

im lateinischen Alphabet. Die Bedeutung besteht darin, daß die Temperatur hoch ist. Weiterhin kann aus einer Information natürlich auch Handeln abgeleitet werden, etwa die Vermeidung unnötiger Arbeitsgänge solange es heiß ist. Dieser Aspekt wird auch als Pragmatik der Information bezeichnet. Zum Teil wird auch reine Struktur als Information bezeichnet. Um die Klarheit des Konzeptes Information zu erhöhen, werden reine Strukturen in diesem Text als Struktur oder Daten und nicht als Information bezeichnet werden.


(Es ist mir klar, daß dies nur eine von mehreren möglichen Definitionen ist, aber es ist immerhin eine Definition)


Danach dann erst das Verhältnis von Information zu Materie und Energie. Doch auch hierzu habe ich noch eine Anmerkung.

Dein Text beschreibt eigentlich nicht das Verhältnis zu Materie und Energie, sondern er sagt nur, daß es neben Materie und Energie eben noch etwas drittes gibt. Dazu habe ich zwei kritische Fragen:

1) Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen

Energie und Materie? Falls nein, welchen Informationsgehalt trägt dann das Bild von der Dreieinigkeit?

2) Gibt es nicht noch weitere wichtige Konzepte neben Energie, Materie, Information? Zum Beispiel Zeit?


Ich denke im übrigen, daß Daten und Strukturen in der Tat Informationseinheiten sein können. Hierbei ist zu berücksichtigen, daß die Einheit typischerweise nicht festgelegt ist.


Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information ... was immer das auch

heißen mag. Auf der Bedeutungsebene mglw. schon. Bedeutung der Information entsteht m.E. immer dadurch, daß eine

Bedeutung zugeordnet wird. Mich würde interessieren, was man unter der Zuordnung von Bedeutung versteht. Die Evolution hat beispielsweise sehr viel bedeutsame Information hervorgebracht, deren Bedeutsamkeit alleine aus dem Erfolg erwächst, ohne Beurteilung durch den Menschen.


Gruß, Markus


Antwort rho:

Mir scheint es wichtig, zunächst einmal Information völlig unabhängig vom Menschen zu definieren.

Es gab Information nach meinem Verständnis bereits lange bevor es Menschen gab.

Es gab informationsverarbeitenden Systeme wie zb lebende Zellen oder Nervensysteme in Tieren.

Auch die Entstehung von bedeutsamer Information kann völlig ohne menschliches Zutun erfolgen.

Die ganze biologische Evolution ist ein Prozess der Entwicklung von bedeutsamer Information.


Der Fachbegriff für Bedeutung ist die Semantik und Pragmatik.

Auch hier gilt semantische und pragmatische Information kann sich völlig unabhängig vom Menschen entwickeln.


Dann kann man sich fragen, wie unterscheidet sich bedeutsame Information von nicht bedeutsamer Information.

Wenn man nur die Zeichenfolge einer Informationssequenz anschaut kann man darüber schon gewiße Aussagen treffen.

Eine völlig gleichförmige Informationsfolge zb 101010101010101010101010 hat relativ wenig Bedeutung.

Eine völlig zufällige Informationsfolge hat auch wenig Bedeutung.

Bedeutsames liegt also immer zwischen den 2 Extremen völlig gleichförmige Ordnung und Zufallsreihe.


Ob der Begriff Information wirklich eine echte, eigenständige Entität im philosophischen Sinne sein kann, weiß ich auch nicht.

Es ist bis heute offen, ob es Infonen oder die Weizäckerschen Uralternativen unabhängig von Energie und Materie gibt.

Ich habe das die Gretchen Frage der Informationstheorie bezeichnet.


Jedenfalls ist der Begriff Information sehr gut brauchbar, er ist sehr grundlegend und wichtig und er ist einigermaßen neutral.

Auch Raum und Zeit sind solche grundlegenden Begriffe. Bei beiden Begriffen streiten sich die Physiker auch, ob es nur Eigenschaften von Energie und Materie sind oder ob sie eine eigenständige physikalische Existenz haben, wie das die klassische Physik angenommen hat.


Man kann die Physik auf den drei Begriffen Energie, Materie und Information aufbauen oder man sucht sich andere Begriffe wie Feld, Kraft, Entropie . Auch darauf läßt sich ganz gut die Physik aufbauen.

Welche Begriffe dann die unterste Ebene bilden ist Ansichtssache und muß pragmatisch entschieden werden.


Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen Energie und Materie?

Das kann ich auch nicht klar beantworten. Manche Physiker sehen da eine Ähnlichkeit.

So behauptet Stonier , daß Materie in Energie und Energie in Information umgerechnet werden kann.

Wobei die Dimensionsstufen immer einige Zehnerpotenzen auseinanderliegen.

So kann man aus sehr wenig Materie eine große Menge Energie erzeugen und das läuft in der Sonne auch so ab.

Ähnlich soll man aus einer kleinen Menge Energie eine sehr große Menge Information erzeugen können.

Hier komme ich persönlich nicht mehr mit, denn bislang wurde eben reine (nackte ) Information nie nachgewiesen.

Fest steht aber, die Information, die in der Struktur von Materie gespeichert ist kann in die Struktur einer elektromagnetischen Welle umgewandelt werden und umgekehrt.


Deine Aussage "Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information" ist meines Erachtens nicht korrekt.


Man kann zb 01 Folgen statistisch betrachten und schon recht gut herausfiltern, ob es sich um Zufallsinformation oder nicht zufällige Information handelt.

siehe dazu zb: Mein Programm 01 Statistik.

Mfg Rho