„Diskussion:Information“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Inhalt gelöscht Inhalt hinzugefügt
KKeine Bearbeitungszusammenfassung
Bot: 1 Abschnitt nach Diskussion:Information/Archiv/1#Stellungnahme des Autors des Artikels <i>Information (Informationswissenschaft)</i> archiviert – letzte Bearbeitung: Tpreu (03.09.2023 18:17:38)
 
(323 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden)
Zeile 1: Zeile 1:
{{Diskussionsseite}}
Sehr (!) gehaltvoll. Ein ganzes Kompendium!
{{Autoarchiv
|Alter =1440
|Ziel ='((Lemma))/Archiv/1'
|Zeigen =nein
|Mindestbeiträge =1
|Mindestabschnitte =8
|Frequenz =monatlich
}}
{{Autoarchiv
|Alter =365
|Ziel ='((Lemma))/Archiv/1'
|Übersicht =[[Spezial:Präfixindex/Diskussion:Information/Archiv|Archiv]]
|Mindestbeiträge =2
|Mindestabschnitte =8
|Frequenz =monatlich
}}


== Das Bit als kleinste Informationseinheit ==
Das "Bild" "heilige Dreieinigkeit" fällt aus der geballten Information heraus. Ein gewollter oder ungewollter Kalauer? Das so für sich recht absonderlich wirkende Schema sollte begründet oder durch einen Sachtext ersetzt werden. --Wst


Ich könnte mir folgendes Denken: Information ist ...., die kleinste Informationseinheit ist das BIT -> Nun zuerst nachlesen, was ein Bit ist.
Jetzt kann man auf dieser Basis die unterschiedlichen Aspekte von Information entwickeln.
Ich bin gerne bereit, hier mitzuarbeiten
[[Benutzer:Rainer Nase]] 07:46, 19. Jan. 2003


(wie macht man den Zeitstempel automatisch?)


{{Erledigt|Bits werden seit längerem im Artikel thematisiert. --[[Benutzer:KaiMartin|-&#60;)kmk(&#62;-]] ([[Benutzer Diskussion:KaiMartin|Diskussion]]) 05:56, 20. Jan. 2019 (CET)}}
Mit dem Bild will ich andeuten, daß auch die Naturwissenschaften auf Basisdogmen (Basisaxiome) aufbaut , die teilweise nur schwer erklär- und verstehbar sind. Vergleiche zb die Abgrenzung von


==Lesenswert-Diskussion Nov. 2005==
Entropie - und Information , meines Erachtens ein ziemlich ungeklärtes Verhältnis. Gleichzeitig die Basis vieler Aussagen in der Physik und Naturwissenschaft.
''Information (von lateinisch: informare 'bilden, durch Unterweisung Gestalt geben') ist ein potenziell oder tatsächlich vorhandenes nutzbares oder genutztes Muster von Materie und/oder Energieformen, die für einen Betrachter innerhalb eines bestimmten Kontextes relevant ist. Wesentlich für die Information ist die Wiedererkennbarkeit sowie der Neuigkeitsgehalt. Das verwendete Muster verändert den Zustand eines Betrachters – im menschlichen Zusammenhang insbesondere dessen Wissen. Formaler ist Information die Beseitigung von Unbestimmtheit.''


{{Pro}} [[Benutzer:Antifaschist 666|Antifaschist 666]] 23:50, 7. Nov. 2005 (CET)
* '''contra''' --[[Benutzer:Elian|Elian]] [[Benutzer Diskussion:Elian|&Phi;]] 03:49, 10. Nov. 2005 (CET)
::Üblicherweise begründet hier derjenige, der zuerst mit "Contra" stimmt, seine Meinung. Nicht zuletzt um den Autoren einen Hinweis zur Verbesserung des Artikels zu geben. --[[Benutzer:Bender235|Bender235]] 00:51, 14. Nov. 2005 (CET)


== Information ==


Informieren hat nicht nur die Bedeutung von "unterrichten" oder sich "Kenntnis zu verschaffen über irgend etwas". Informieren hat auch etwas zu tun mit in-formare - etwas formen. Wer informiert, der kann beeinflussen, formen, etwas in eine bestimmte Form bringen, indem er es auch in einer bestimmten Form vermittelt (Nachricht jemanden nach etwas richten). Wenngleich wir davon ausgehen können, dass jeder Mensch geprägt ist und dazu neigt, eher das zu glauben, was seine Meinung bestätigt, so lässt er sich trotzdem von Inhalten beeinflussen, die ihm vorgelegt werden.
Außerdem soll Wikipedia m.E. auch nicht so toternst sein. Gerade die Definition von Information ist ja eher trocken . Da ist ein bißchen Provokation mit dem Begriff heilige Dreieinigkeit zum Aufwachen vielleicht ganz gut.
Gedanken lassen sich allein schon insofern steuern, als der Informant darüber bestimmt, was wir denken oder reden sollen. Er bestimmt das Denktraktandum. Es ist deshalb nicht verwunderlich, wenn z.B. bei Jugendlichen, die sich dauernd mit dem Thema Drogen auseinandersetzen müssen, plötzlich auch mit Drogen experimentiert wird. Das gedankliche Fokussieren hat allmählich unbewusst Interesse und Neugierde geweckt.
Die Medien, welche die Themen und Bilder auswählen und bestimmen können, verfügen über ein grosses Machtmittel im Bereich Beeinflussung. Dann, wenn Information zur Desinformation wird, gilt es bei Beeinflussungsprozessen wachsam zu sein. Vorab dann, wenn der Informierende übertreibt, bewusst verknappt (Themen ausklammert) überbewertet, verdreht oder absichtlich oder unabsichtlich verfälscht. In Krisen- und Kriegssituationen hat sich bestätigt, wie wichtig Informationen als Beeinflussungselemente sind (2. Weltkrieg, Vietnamkrieg, Golfkrieg usw.)
Wer informiert und wer informiert wird, muss sich ferner damit abfinden: Jedermann ist präformiert, das heisst geprägt, und kann das Subjektive nie vollständig ablegen.


== Qualitative und quantitative Information ==
"Die grosse Tragödie unserer Gesellschaft ist, dass wir quantitativ über - und qualitativ unterinformiert sind. Wir wissen bedeutend mehr als unsere Vorfahren, doch wir wissen es bedeutend weniger gut, Wir müssen besser informiert werden im wahren Sinne des Wortes: auf bessere Weise, nicht durch mehr Informationen. Zu oft geht das Spektakuläre dem Wesentlichen vor, das Wichtige wird von Unfällen und Verbrechen überlagert, das Bedeutsame vom Sensationellen verdrängt. Überbordende Quantität und unzureichende Qualität bewirken eine ernsthafte Desinformation der Information, die viele Leute daran hindert, klarzusehen und Zusammenhänge richtig zu erkennen."


Quelle P.Lévy (Informationschef Europarat)


== Definitionen in verschiedenen Wissenschaften/Anwendungsbereichen (Entwurf) ==
Wenn es auf allgemeines Mißfallen stößt kann ich das Bild auch ändern.
Der Begriff „Information“ ist nicht einheitlich und allgemeinverbindlich definiert [ref offen]. Anschließend finden sich Definitionen aus verschiedenen Bereichen. Die folgenden ''Kriterien'' beschreiben den Begriff Information weitgehend allgemeingültig, d.h. unabhängig von konkreten Anwendungsgebieten(~):
* Informationen basieren i.d.R. auf 'Daten', sind aber nicht identisch mit dem Datenbegriff
* Es entsteht 'Wissenszuwachs' beim Empfänger in einem bestimmten Kontext, also empfänger-/situationsabhängig
* Zu unterscheiden sind die Ebenen ''Code, Syntax, Semantik, Pragmatik''
* Unabhängig vom Auslöser des Info-Transfers: Empfangen nach aktivem Senden (Zeitung) oder 'abrufen' durch den Empfänger (Internet)
* ...
=== Muster ===
*Definition: xxxx <nowiki><referenzen></nowiki>
*<nowiki><Erläuterungen></nowiki>
=== (einzelne Definitionen) ===
<small>VORBY; Hier vorläufig nicht als Gliederungspunkte formatiert</small>
;=== Informatik ===
;=== Ingenieurwissenschaften, insbesondere: Informationstheorie, Nachrichtentechnik ===
* Definition: < noch raussuchen, sinngemäß: Daten, die den Zustand eines Systems verändern. Steht irgendwo ziemlich am Anfang von ''A mathematical theory of communication'' >
* Alternative Formulierung: Information ist der Anteil eines Signals (bzw. von Daten) der interpretierbar aber nicht vorhersehbar ist.


Grundlage des Informationsbegriffs in der Nachrichtentechnik ist die Arbeit „A mathematical theory of communication“ (dt.: Mathematische Grundlagen in der Informationstheorie)<ref>{{Literatur | Autor=Claude Elwood Shannon | Titel=A Mathematical Theory of Communication | Sammelwerk=Bell System Technical Journal | Band=27 | Seiten=379–423, 623–656 | Verlag=Short Hills | Ort=N.J. | Datum=1948 | ISSN=0005-8580 | Online=http://ieeexplore.ieee.org/xpl/articleDetails.jsp?reload=true&arnumber=6773024 | Zugriff=2018-07-21}}</ref><ref>{{Internetquelle|url=https://www.heise.de/newsticker/meldung/Am-Anfang-war-das-Bit-zum-100-Geburtstag-von-Claude-Shannon-3194701.html|titel=Am Anfang war das Bit: zum 100. Geburtstag von Claude Shannon|autor=|werk=heise online|zugriff=2016-04-30}}</ref> von [[Claude Shannon]]. Er sieht Information nicht als eine Eigenschaft bestimmter Daten an, sondern als Eigenschaft eines Verarbeitungsprozesses dieser Daten durch den Empfänger oder eines verarbeitenden Systems. Die selben Daten können je nach Kontext also einmal Informationen darstellen, in einem anderen Fall aber nicht.
Siehe auch http://home.t-online.de/home/0926161717-0001/definfo.htm Mfg [[rho]]


In späteren Arbeiten hat Shannon seine Theorie weiter ausgebaut: „Communication in the presence of noise“<ref>{{Literatur | Autor=Claude Elwood Shannon | Hrsg=[[Massachusetts Institute of Technology|MIT]] | Titel=Communication in the presence of noise | TitelErg=Nachdruck. Das Original wurde 1948 veröffentlicht | Sammelwerk=Proceedings of the IEEE | Band=86 | Seiten= | Verlag= | Ort= | Datum=1998-02 | ISSN= | Online=http://nms.csail.mit.edu/spinal/shannonpaper.pdf | Zugriff=2018-07-21}}</ref>
(Nachrichtenübermittlung bei vorhandenen Störungen) und „Communication Theory of Secrecy Systems“<ref>{{Literatur | Autor=Claude Elwood Shannon | Hrsg=[[University of California, Los Angeles|UCLA]] | Titel=Communication Theory of Secrecy Systems | TitelErg=Nachdruck. Original wurde 1949 veröffentlicht]] | Sammelwerk= | Band= | Seiten= | Verlag= | Ort= | Datum= | ISBN= | ISSN= | Online=http://netlab.cs.ucla.edu/wiki/files/shannon1949.pdf | Zugriff=2018-07-21}} </ref> (Theorie verschlüsselter Kommunikation)


Shannons Theorie bildet die Grundlage für die Auslegung aller Arten von [[Datenübertragung]]s-Systemen, sowie für [[Datenkompression]] und lieferte wichtige Grundlagen für die [[Kryptographie]] als wissenschaftlicher Theorie.


'''Missverständnisse:'''<br>
Mich stört mehr, dass diese Dualität von Materie und Energie schon nicht stimmt. Materie ist in der Naturwissenschaft nichts anderes als eine Form der Energie. Und die Rolle der Information ist ziemlich umstritten, d. h. man kann vermutlich gar nicht mehr tun, als eine schwammige Meinung dazu zu präsentieren, aber es ist problematisch, das wie eine Lehrmeinung darzustellen. IMHO -- HelmutLeitner
Für die Fähigkeit eines Signals oder Datenstroms Informationen zu transportieren hat Shannon den Begriff der [[Entropie (Informationstheorie)|Entropie]] eingeführt. Es hält sich weithin das Missverständnis, dass die Entropie ein Maß für den Informationsgehalt sei. Das ist aus zwei Gründen falsch:
* Die Entropie ist ein Maß für die ''Fähigkeit'' Information zu transportieren. Es stellt damit eine ''Obergrenze'' dar. Die Entropie lässt aber keine Aussage darüber zu, ob diese Fähigkeit tatsächlich dazu benutzt wird Information im Shannon'schen Sinne zu übertragen, oder die Daten z.B. [[Redundanz (Informationstheorie)|redundant]] sind oder vom Zielsystem interpretiert werden können.
* Die Entropie bezieht sich nicht auf einen Informations-''Gehalt'', sondern auf eine Informations-''Dichte'', nämlich ''Bit pro übertragenem Zeichen''. Um auf die Obergrenze der Informations-Gehalts zu kommen muss die Entropie noch mit der Anzahl der Zeichen multipliziert werden.


;Anmerkung
Das Missverständnis hält sich wohl auch deshalb so hartnäckig, weil es im entsprechenden Artikeln in Wikipedia fehlerhaft dargestellt ist.
Leider fehlt mir im Moment die Zeit, das mal sorgfältig und mit Quellen untermauert durchzuarbeiten. --[[Benutzer:MRewald|MRewald]] ([[Benutzer Diskussion:MRewald|Diskussion]]) 14:15, 21. Jul. 2018 (CEST)


;=== Informationsökonomik ===
;=== Semiotik ===
;=== Informationswissenschaft, Dokumentations- und Ordnungslehre, Bibliothekarisches Grundwissen ===
Siehe derzeitiger Artikeltext
;Anmerkung:
Der derzeitige Artikeltext verwendet die Vokabeln ''Signal'' und ''Nachricht'', die in der ''Nachrichtentechnik'' eine definierte Bedeutung haben. Die Annahme, dass die Bedeutung in der Dokumentations- und Ordnungslehre identisch ist, halte ich für kühn. Das sollte zumindest geprüft werden und gegebenenfalls die Unterschiede erläutert.


;=== Mathematik ===
Im allgemeinen ist Materie und Energie grundverschieden , nur in der Sonne kann Materie in Energie verwandelt werden. Deswegen halte ich es schon für richtig Energie und Materie einander gegenüberzustellen.
;=== Allgemeiner Sprachgebrauch ===
Im allgemeinen Sprachgebrauch wird zwischen Daten und Informationen oft nicht unterschieden. --[[Benutzer:MRewald|MRewald]] ([[Benutzer Diskussion:MRewald|Diskussion]]) 19:55, 21. Jul. 2018 (CEST)


;=== Philosophie ===
Energie kann sich zb mit Lichtgeschwindigkeit ausbreiten , Materie nicht.
;=== Biologie ===
;=== Neuroinformatik ===
;=== Soziologie ===
<references />


=== Diskussion zu den Entwürfen ===
Hi @MRewald, zu Nachrichtentechnik: Nach meiner Vorstellung sollten die einzelnen Kapitel sehr viel kürzer ausfallen. Die jeweilige Sicht wäre dann zunächst verständlicher und könnte mit anderen Sichten leichter verglichen werden. Ob 'Entropie' wirklich nur der Nachrichtentechnik zugordnet werden kann? Lt [[Entropie (Informationstheorie)]] (auf das Du dich wohl inhaltlich beziehst) ist das anscheinend nicht der Fall, sondern stammt aus deer 'Informationstheorie'. Wahrscheinlich überschneiden sich verschiedene 'Wissensgebiete' diesbezüglich erheblich, gerade deshalb sollten wir hier nur ganz kurz das Wesentliche beschreiben. Mehr könnte man ggf. in eigenen Artikeln unterbringen, sodass hier wirklich nur Allgemeingültiges steen würde. --[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 16:11, 21. Jul. 2018 (CEST)


: Hi {{#if:|{{{a}}}&nbsp;|@}}[[Benutzer:VÖRBY|VÖRBY]]: Das Wort ''Entropie'' ist der Physik und der Chemie entlehnt und wurde meines Wissens von Shannon in der zitierten Arbeit für die Informationstheorie eingeführt. Shannon gilt als Begründer der Informationstheorie, deshalb sehe ich da keinen Widerspruch zwischen ''Informationstheorie'' und ''Shannon''. Es gibt allerdings Vorarbeiten, zu denen zum einen sicherlich Shannons Doktor-Vater [[en:Frank Lauren Hitchcock]] gehört, ebenso seine älteren Kollegen [[Harry Nyquist]] ([[Nyquist-Shannon-Abtasttheorem]]), [[Ralph Hartley]] ([[Shannon-Hartley-Gesetz]]). Beiträge geleistet hat sicherlich auch seine Kollegin und spätere Ehefrau [[en:Betty Shannon]], auch wenn sie als Co-Autorin in den Veröffentlichungen nicht genannt wird. Ebenso könnte man Shannons Doktorarbeit ''An Algebra for Theoretical Genetics'' im weiteren Sinne zu den Voarbeiten rechnen.
:Das habe ich jetzt so schnell greifbar, weil ich es einfach aus einem Vortrag kopieren konnte, den ich vor einigen Monaten gehalten habe.
: Was das Kürzen anbelangt, kann ich Deinen Wunsch gut nachvollziehen. Wir sind hier aber ja im Diskussions-Forum und es muss nicht alles in den Artikel übernommen werden. Insbesondere meine ''Anmerkung'' ist für den Artikel wohl eher nicht geeignet. Als Hintergrund-Information würde ich die Angaben, hier im Diskussionsforum, aber gerne stehen lassen, weil die Abweichungen zu anderen Wikipedia-Artikeln sonst nicht nachvollziehbar sind.
: --[[Benutzer:MRewald|MRewald]] ([[Benutzer Diskussion:MRewald|Diskussion]]) 16:59, 21. Jul. 2018 (CEST)


: Den Abschnitt ''Informationstheorie und Informationswissenschaft'' halte ich für etwas unglücklich gewählt.
Beim Thema Information sind die Akten noch nicht geschlossen . Es ist unklar, ob es eigenständige Infonen , Uralternativen also Informations"teilchen" geben kann.
: [[Informationstheorie]] ist die mathematische Theorie, die von Shannon begründet wurde. Der Informations-Begriff ist damit identisch mit dem der Nachrichtentechnik. [[Informationswissenschaft]] dagegen hat einen engen Bezug zu [[Archivkunde|Archiv-]] und [[Bibliothekswissenschaft]] und ist damit historisch erheblich älter. Es dürfte sich IMHO eher in Richtung der Überschrift ''Dokumentations- und Ordnungslehre'' bewegen. Da es dabei auch nicht um die Übermittlung von (potentieller) Information geht, sondern um deren Ordnung und Auffindbarkeit, vermute ich, dass sich der Informations-Begriff hier an wesentlich statischeren Vorstellungen orientiert. Das ist schon ein erheblicher Unterschied zu Shannon.
: --[[Benutzer:MRewald|MRewald]] ([[Benutzer Diskussion:MRewald|Diskussion]]) 20:15, 21. Jul. 2018 (CEST) überarbeitet --[[Benutzer:MRewald|MRewald]] ([[Benutzer Diskussion:MRewald|Diskussion]]) 20:46, 21. Jul. 2018 (CEST)
::Du kannst das gerne anpassen. --[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 08:43, 22. Jul. 2018 (CEST)


: Ok, ich wollte die Stichworte nicht löschen und habe sie deshalb etwas gruppiert, wie sie IMHO zusammen gehören. Vermutlich könnte man noch weiter gruppieren, aber von Gebieten, mit denen ich mich zu wenig auskenne habe ich die Finger gelassen.
Da wird noch viel gestritten und geforscht.
: Da mir das Thema im Moment etwas durch den Kopf geht, formuliere ich mal eine Hypothese zu den Kriterien von Information. Ein wesentlicher Unterschied scheint mir zu bestehen zwischen
: * Informations-Übermittlung und
: * Speichern und Bereithalten von Informationen
: Beim Info-Transfer, werden die Daten entgegen genommen, wie sie sind und es geht um die lediglich ''kategorisiert'' unter dem Aspekt: Können die Daten verworfen werden oder müssen sie weiter geleitet werden. Eine weitere Sortierung oder Gruppierung findet nicht statt. Im Vordergrund steht dabei ein aktuell laufender Prozess, die Kriterien dafür, Daten zu verwerfen liegen stärker auf der Seite, sie zu verwerfen.
: Beim Speichern von (potentiellen) Informationen geht es dagegen schwerpunktmäßig darum, die Daten so zu ordnen, dass sie bei Bedarf wieder gefunden werden können. In zweiter Linie dann schon auch, ob sie zu einem spezifischen Fachgebiet etwas beitragen oder nicht. Die Kriterien, ob Daten aufgenommen oder verworfen werden, werden in diesem Fall vermutlich auf der Seite liegen: "Wir wissen noch nicht, ob das nochmal zu gebrauchen sein wird. Im Zweifel eher speichern". <small>VÖRBY: Das trifft nur auf den Begriff 'Daten' zu.</small>
: Das impliziert die folgende Unterscheidung:
: * wird die Eigenschaft fest gemacht an einen konkreten Bearbeitungsprozess (die technische Sicht) oder
: * wird die Eigenschaft daran fest gemacht, ob es für irgend jemanden in der Zukunft eine Information darstellen könnte (Bibliothekars-Sicht) <small>VÖRBY: Dann ist das jetzt noch keine Information</small>
: Gemeinsam ist den beiden sicherlich: Was wert ist, gespeichert zu werden ist eine Information, alles Andere sind Daten ohne Informations-Charakter.
: Kriterien, was eine Information ist, oder nicht, könnten sein:
: * Kann es interpretiert werden? (ist es z.B. in einer passenden Sprache geschrieben, ist es verschlüsselt und verfüge ich über den Schlüssel)
: * Ist es bereits bekannt?
: * Kann es in einen bekannten Kontext eingeordnet werden?
: * Hat es Konsequenzen?
: * Ist es von Interesse?
: Mit [[Ingetraut Dahlberg]] habe ich mich z.B. darüber gestritten, ob statistische Analysen Information vernichten oder generieren.
: * Die Position der Informationswissenschaftlerin dabei: Die ursprünglichen Daten hätten noch nach verschiedenen Aspekten ausgewertet werden können, die in der statistischen Aggregation nicht mehr erkennbar sind, also wurde Information vernichtet.
: * Meine (technische) Position: Ein Datenwust, der so komplex ist, dass ich vor ''lauter Bäumen den Wald nicht mehr sehe'', enthält für mich keine Informationen, da ich ihn nicht interpretieren kann. Die Verkürzungen, die durch eine statistische Analyse unbestritten erzeugt werden, reduzieren den Datenumfang soweit, dass ich überhaupt erst in die Lage versetzt werde, etwas zu verstehen, also wird dadurch Information überhaupt erst erzeugt, folglich also hinzugefügt.
: Das geht jetzt etwas in Richtung Theorie-Findung, aber vielleicht inspiriert es den Einen oder die Andere in der Runde, eine Literaturstelle zu finden, mit der es dann wiki-würdig wird.
: --[[Benutzer:MRewald|MRewald]] ([[Benutzer Diskussion:MRewald|Diskussion]]) 13:44, 22. Jul. 2018 (CEST)


::Hallo @MRewald. Ich fürchte, mit Deinen Ansätzen beginnt wieder (mal) eine ganz neue Diskussion; wie in der Disk schon häufig begonnen und kaum beendet. Meine Meinung (bin kein Info-Wissenschaftler!) dazu war/ist, dass der Artikel lediglich noch unterschiedliche Definitionen gegenüberstellen sollte; die Grund-Eigenschaften von Informationen sind im Artikel bereits korrekt behandelt. Das wäre dann also eine kleine Ergänzung/Überarbeitung.
Für unser Alltagsverständnis stimmt das Dogma :
::So wie ich den [[Begriff]] 'Information' interpretiere, ist das ein recht abstrakter Sachverhalt: Erst beim (jeweiligen!) 'Empfänger' und abhängig von dessen 'Wissensbedarf' in einem bestimmten 'Kontext' entsteht "Information"; siehe derzeitiger Einleitungssatz und Aussagen unter 'Eigenschaften' etc. Wenn von 'Speichern' und 'Auswerten' die Rede ist, dann bezieht sich das ausschließlich auf 'Daten', denn Informationen im definierten Sinn können nicht gespeichert werden - außer in der Bedeutung als Synonym für Daten. Ich stimme Dir also zu: Bei statistischen Auswertungen/Analysen werden keine Informationen vernichtet, sondern es entstehen zunächst neue Daten - die potenziell zu Informationen werden können; so wie aus den der Analyse zugrunde liegenden originären Daten ebenfalls wieder (und mehrfach) Informationen werden können.
::Eine ganz andere Möglichkeit wäre, den Artikel vollkommen neu zu schreiben. Da bin ich aber 'draußen'.
::Grüße von --[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 17:34, 22. Jul. 2018 (CEST); ergänzt: --[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 12:17, 8. Aug. 2018 (CEST)
::: In Anbetracht des wirklich desaströsen Zustandes dieses Artikels, der keinerlei enzyklopädischen Wert hat, finde ich diese Vorstellung attraktiv. Insbesondere deswegen, weil eine Mehrheit an Personen und Referenzen zwischen Daten und Informationen klar unterscheidet und Du nicht. 16:32, 26. Jul. 2018 (CEST) [[Benutzer:West of House|West of House]] ([[Benutzer Diskussion:West of House|Diskussion]])
::::Neu schreiben: Wer tut das? Nach welchen Belegen? Nur zu!
::::So desaströs finde ich ihn ja nun nicht, schließlich sind alle wesentlichen Aspekte 'belegt'. Ich denke, sie basieren i.W. auf der Schnittmenge von Kriterien aus verschiedenen Definitionen. Trotzdem könnten/sollten mehrere Definitionsunterschiede klarer herausgestellt werden, die Absicht des o.a. Abschnitts.
::::"Und Du nicht:" Lies den Artikel mal genau, dann wirst Du sehen, dass die Gleichsetzung von Information und Daten von 4 genannten Quellen als lediglich "umgangssprachlich gleichbedeutend" beschrieben werden - was wohl auch nicht falsch ist (und deshalb erwähnenswert). --[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 10:10, 27. Jul. 2018 (CEST)


Sind die Aktivitäten hier eingeschlafen? Meine Sicht: Wenn es Texte zu weiteren Bereichen für Informationsdefinitionen gibt, können diese in [[Information#Der Begriff in verschiedenen Wissenschaften/Fachrichtungen|diesem Abschnitt]] ergänzt werden. Ich schlage vor, den QS-Baustein demnächst zu löschen.--[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 12:53, 22. Aug. 2018 (CEST)
Reine Information gibt es nicht . Information gibt es immer nur im Zusammmenhang mit Energie und Materie.


: Was mich betrifft, war ich ausgiebig in Urlaub und bin auch in der nächsten Zeit etwas knapp mit der Zeit.
Übrigens kann man das naturwissenschaftliche Dreigestirn auch noch anders bezeichnen:
: Was die bisherige Diskussion angeht: Wenn es tatsächlich eine einheitliche Sichtweise über alle Disziplinen gibt, würde ich das zwar sehr begrüßen. Allerdings hatte ich in der Vergangenheit schon heftige Diskussionen, in denen Vertreter anderer Disziplinen eine andere Vorstellung von Information vertreten haben und dafür auch reklammiert haben, dass das keine umgangssprachliche Vorstellung ist. Ich bin deshalb nicht sehr optimistisch, dass es über alle Fachgrenzen hinweg eine einheitliche Vorstellung gibt.
: Ich selbst kann nur für die Nachrichtentechnik sprechen, denke aber dass diese Vorstellung über die Nachrichtentechnik hinaus weitgehend auch im restlichen Ingenieurbereich geteilt wird. Es scheint aber zumindest Unterschiede zu den Informatikern und zu den Bibliothekaren/Informationswissenschaftlern zu geben.
--[[Benutzer:MRewald|MRewald]] ([[Benutzer Diskussion:MRewald|Diskussion]]) 13:23, 22. Aug. 2018 (CEST)


::Hallo, willkommen zurück (aus dem Urlaub). Dass es Unterschiede gibt, ist zweifelsfrei. Diese zu beschreiben ist das Ziel des entsprechenden Abschnitts. Die bisherigen Texte im Artikel behandeln m.E. Aspekte, die über die Disziplinen hinweg wohl einheitlich gesehen werden - zur Einleitung den intraindividuellen Wissenszuwachs in einem bestimmten Kontext, 'Info-Kanal', Sender/Empfänger usw. Auch die [[Information#Bedeutungsschwerpunkte|Bedeutungsschwerpunkte]], die Eigenschaften und Beispiele und die [[Information#Struktur und Bedeutung|strukturellen Aspekte]] sind m.E. mehr oder weniger allgemeingültig, vielleicht manchmal etwas zu detailliert beschrieben (wie Modelle/Kommunikationsmodell, Transport, Entstehung ...). Trotzdem denke ich, man kann im Abschnitt (.. verschiedene Wissenschaften) Unterschiede der jeweilien Definitionen kurz erläutern - mit Quelle; das sollte dann genügen. Für breitere Abhandlungen müsste man wohl spezielle Artikel halten (wie 'Information (Soziologie)' u.a.). --[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 16:44, 22. Aug. 2018 (CEST)
Stoff -- Strahlung -- Struktur


== Letzte Überarbeitung ==


Hi @KaiMartin, Deine Überarbeitungen haben m.E. einige zum Verständnis beim Leser nicht unwesentliche Aspekte zu Information 'wegrationalisiert'. Dies sind:
* in [https://de.wikipedia.org/w/index.php?title=Information&diff=prev&oldid=184890246&diffmode=source]: 'menschen ... Systeme' als mögliche Empfänger; 'aktionsprägend': nützliche Präzisierungen.
* in [https://de.wikipedia.org/w/index.php?title=Information&diff=next&oldid=184890265&diffmode=source]: 'filtern, erweitern, verknüpfen' als i.Z. mit der Nutzung von Informationen durch den Empfänger wesentliche Aspekte.
Magst Du nochmal drüberschauen? --[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 09:47, 20. Jan. 2019 (CET)
:@KaiMartin, ich würde ansonsten diese Angaben wieder in Kurzform einstellen.--[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 17:03, 22. Jan. 2019 (CET)
:Die entfernten Textpassagen finden sich in 'zig' Online-Fundstellen wieder. Auch wenn nicht immer klar ist, wer von wem abgeschrieben hat: Sie wurden in 'namhaften' Sites und Büchern wörtlich oder sinngemäß übernommen. gelten also bei jenen Autoren als Lemma-relevante Aussagen/Eigenschaften.--[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 12:36, 26. Jan. 2019 (CET)


Ich habe das heute entsprechend wieder ergänzt. Siehe [https://de.wikipedia.org/w/index.php?title=Information&curid=2376&diff=185157328&oldid=184890813&diffmode=source]--[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 12:48, 28. Jan. 2019 (CET)
Man sollte sich immer in Erinnerung rufen , daß diese physikalischen Begriffe sich nur sehr langsam herausgeschält haben.


== Definition zu eng ==
Bis ca 1850 war zb die Unterscheidung zwischen Kraft und Energie noch nicht vollzogen und Anlaß für viele Mißverständnisse.


Beispiel: 'Genetischer Code':
Der Artikel wird dem Gebrauch des Begriffs in der Biologie nicht gerecht, praktisch unterschlägt er ihn sogar. Oder ist das woanders schon richtig dargestellt? Als Anhaltspunkt: [[Paul Nurse]] in "Was ist Leben" nennt Information als eines der 5 wesentlichen Charakteristika von Leben schlechthin. --[[Benutzer:Bleckneuhaus|Bleckneuhaus ]] ([[Benutzer Diskussion:Bleckneuhaus|Diskussion]]) 16:40, 8. Feb. 2022 (CET)


Die Definition ist also zu eng, auch hier: Die Einleitung („''Beim Empfänger führt die Information zu einem Zuwachs an Wissen.''“) beschränkt den Begriff offenbar auf Empfänger, die so etwas wie ''Wissen'' haben können. Das schließt so wichtige Anwendungsgebiete wie biologische Prozesse (Vererbung, Stoffwechsel, Immunreaktion, .... .... ) aus, fälschlich. --[[Benutzer:Bleckneuhaus|Bleckneuhaus ]] ([[Benutzer Diskussion:Bleckneuhaus|Diskussion]]) 16:46, 8. Feb. 2022 (CET)


:Hallo, und Danke für Deine Hinweise. Vorschlag: Ergänze den artikel entsprechend, z.B. in "Der Begriff in verschiedenen Wissenschaften/Fachrichtungen". Der Abschnitt "Information als Veränderung" beschreibt ein sehr allgemeines Charakteristikum - das evtl. auch in den von Dir genannten Zusammenhängen zutrifft. So wie auch "Wissenszuwachs" etwas sein könnte, das auch im Bio-Bereich, dort vlt mehr oder weniger indirekt zutrifft. Sorry, ich habe Deine beiden Hinweise zu einem zusammengefasst.--[[Benutzer:VÖRBY|VÖRBY]] ([[Benutzer Diskussion:VÖRBY|Diskussion]]) 12:02, 9. Feb. 2022 (CET)
Im 20.Jahrhundert ist als fundamentale Größe eben noch die Information dazugekommen. Diese Größe hat aber in der Physik bis heute noch keinen so richtigen Platz gefunden .


== Fehlende Referenzen im Abschnitt "Struktur und Bedeutung" ==
Über den Zusammenhang zwischen Information und Entropie wird da auch noch heftig diskutiert.


Im Abschnitt "Struktur und Bedeutung" hat es keine Referenzen. Der Abschnitt scheint eine inhaltlich weitreichende Ausdifferenzierung der bekannten Semantik-Syntax-Dualität zu sein. Die Richtigkeit bezweifle ich nicht, Quellen wären trotzdem wünschenswert. Evtl. ist das Material für Kommunikationswissenschfler:innen, Kognitionswissenschaftler:innen u.Ä. standard, mir ist es nicht geläufig.


Der Punkt "Codierung" wurde von [https://de.m.wikipedia.org/wiki/Spezial:Beitr%C3%A4ge/194.230.155.238] eingefügt. Siehe [https://de.m.wikipedia.org/wiki/Spezial:Mobiler_Unterschied/2161843].


Die anderen drei Ebenen sind erstmals in der Version [https://de.m.wikipedia.org/wiki/Spezial:Mobiler_Unterschied/123464] von [https://de.m.wikipedia.org/w/index.php?title=Benutzer:Ulrich.fuchs&action=view] genannt.
Mfg [[rho]]


Vielleicht können diese Nutzer ja Quellen beisteuern.


In der englischen Wikipedia hat es im Artikel zu Linguistik [https://en.wikipedia.org/wiki/Linguistics] ein Diagramm, das diese 4er-Hierarchie im kontext der Linguistik auf eine 6er-Hierarchie erweitert [https://commons.wikimedia.org/wiki/File:Major_levels_of_linguistic_structure.svg]. Im Abschnitt über Grammatik [https://en.wikipedia.org/wiki/Linguistics#Grammar] wird diese Hierarchie durch weitere Kategorien verfeinert. Ob und wie diese für die Linguistik offenbar belegte Einteilung auch für die Informationstheorie, bezüglich derer dieser deutsche Wikipediaartikel den Begriff Information klären will, allgemein gilt, ist mir nicht klar. Es bräucht also Belege für diese Hierarchie im Kontext der Informationstheorie.


--[[Benutzer:Tpreu|Tpreu]] ([[Benutzer Diskussion:Tpreu|Diskussion]]) 19:05, 2. Sep. 2023 (CEST)
Wenn "die Akten noch nicht geschlossen" sind, und "noch viel gestritten und geforscht" wird, so sollte das aber im Artikel klargemacht werden.

Ich bin der Ansicht, dass der Artikel viel 'Spekulation' und 'Ideen', aber nicht 'Ergebnisse der Wissenschaft' enthält.

Die Tatsache, dass physikalische Begriffe lange unklar definiert waren, verlangt ja geradezu, hier auch bei der Information besonders vorsichtig zu sein, um eben nicht Dinge, die noch nicht wohldefiniert sind, hier so darzustellen, als ob sie wohldefiniert seien.



Ausserdem ist mit nicht bekannt, in welcher Wissenschaft die 'Information' eine fundamentale Größe sein soll.

Die von Dir oft angeführte Beziehung zur Entropie ist vielleicht in der populären Darstellung der Physik verbreitet, wird aber in der Physik selbst nicht benutzt.

Ich sage mal bewußt provokativ: "Information' ist nur ein leeres Schlagwort, das in vielen Bereichen benutzt wird, aber nirgends definiert ist.



Wenn Du z.B. schreibst:

: "In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information",

dann finde ich das eine leere Definition. Ein vager Begriff (Information) wird durch einen anderen vagen Begriff (Struktur) definiert.



Wenn ich (um Masse zu definieren) schriebe,

: "In jeder Art von Materie steckt Masse",

dann ist das auch nicht definierend.



Ich finde Deinen Zugang, hier riesige Artikel abzuladen, sehr problematisch:

Warum beginnst Du nicht klein, und erlaubst uns auch unsere Ideen einzubringen.

Die Wikipedia soll doch ein Gemeinschaftsprojekt sein, und ich zumindest finde solche langen, kontroversen Artikel nicht der Idee einer Gemeinschaftsarbeit förderlich.



-- [[Schewek]]



Hallo Schewek !

Ich beschäftige mich schon ziemlich lange mit dem Begriff Information und habe dazu einige Arbeitstexte ins Internet gestellt.

*http://home.t-online.de/home/0926161717-0001/definfo.htm

*http://home.t-online.de/home/0926161717-0002/infotheo.htm

*http://home.t-online.de/home/0926161717-0002/zufall.htm

Das der Begriff Information grundlegend ist , kann man bei vielen Leuten nachlesen

*zb Weizsäcker

*zb Shannon

*zb Wiener

*zb von Haken



Typisch für die Naturwissenschaften ist , daß sie eine vage Idee von etwas hat und dann anfängt damit zu arbeiten. Sie kümmert sich zunächst nicht um genaue Definitionen .

Wir leben im "Informationszeitalter" und haben nur eine vage Vorstellung von dem Begriff , der dem zu Grunde liegt. Dem wollte ich mit meinem Beitrag etwas abhelfen.



Das interessante an dem Begriff Information ist , daß er an der Grenze der Naturwissenschaften zur Mathematik , bzw auch zu den Geisteswissenschaften steht.

Auch die Mathematik hat Probleme grundlegende Begriffe sauber zu erklären. Frage mal einen Mathematiker, was ein Punkt ist . Jeder Schüler arbeitet damit , hat eine intuitive Vorstellung davon , aber eine saubere Definition ist schwierig.

So eine saubere Definition hört sich dann auch ein bißchen tautologisch an .

Siehe dein Beispiel mit der Materie und der Masse.



Wenn dich die Länge meines Beitrages stört , dann lösch ihn wieder heraus . Ich fände es schade, da viel Mühe in meinem Beitrag steckt, aber ich kann dich nicht dran hindern.

Besser wäre es , den Artikel wirklich durchzuarbeiten und zu überlegen , wo noch Widersprüche und

Unklarheiten zu finden sind, die man verbessern kann.



Oder du versuchst dich mal an anderen Begriffen , wie zb [[Bedeutung]] oder [[Ordnung]] , die eng verwandt mit der Definition der Information sind , aber m.E. in Wikipedia noch zuwenig beackert wurden

Mfg rho



Danke, Rho, für das Beispiel mit dem [[Punkt]]! Genau was ich brauchte: Ein Punkt ist jedem Schüler 'bekannt', in seinem 'Erfahrungsbereich' oder 'Zusammenhang'. Ein Mathematiker kann dir genau sagen, wenn er einen Beweis führt oder ein Theorem formuliert, was ein 'Punkt' in genau dem Zusammenhang bedeuten soll. Er gibt die Definition für den konkreten Fall (zB [[Punktmenge]], [[Vektorraum]], ...) an, und schafft damit einen Bedeutungszusammenhang, so dass er ein sinnvolles Gespräch mit dem Kollegen führen kann. Und genau dieser Zusammenhang ist es, was ich in Deinem Artikel vermisse! Ich habe leider auch nur vage Kenntnisse dazu, was zZ in den verschiedenen Wissenschaften zum Thema Informatik geforscht wird. Aber wenn zB Shannon den Begriff gebraucht, so geschieht das in einem Zusammenhang. Wenn Du solche Hinweise geben würdest, wäre Dein Artikel einem interessierten Laien viel zugänglicher; ausserdem natürlich dann auch Ausgangspunkt zu anderen Artikeln in der Wikipedia.



-- [[Schewek]]





Probier doch einmal eine Definition des Begriffes Punkt für Wikipedia . Es ist gar nicht so einfach.



Wenn man bei Shannon zum Thema Information nachliest , dann findet man da auch keine allzu tiefschürfende philosophische Abhandlung , sondern er setzt einfach Information gleich der Entropie und fängt fröhlich damit zu rechnen an.

Für sein Gebiet der praktischen Nachrichtentechnik ist das ganz brauchbar. Gleichzeitig hat er aber eine seit 50 Jahren währende Diskussion über das Verhältnis zwischen Information und Entropie losgetreten , die bis heute noch nicht befriedigend zu Ende gekommen ist.

Die Grundfrage lautet dabei : Was unterscheidet geordnete Information von Zufallsinformation ?



Meinen Beitrag zum Thema Information, der ja auch nach deiner Meinung schon viel zu lang ist ,

wollte ich durch ausführliche Quellenangaben nicht noch länger machen .

Aber du hast recht, vielleicht füge ich ich noch einen Verweis Information/Quellen an . Dann wird das ganze vielleicht etwas klarer.

rho



Das ist ja ein bunter Reigen zum Thema Information. Insgesamt eben ein vielschichtiges Thema. Ich würde auf der obersten

Ebene vielleicht etwas weniger schreiben. Die Aussagen zu Energie und Materie z.B. weglassen. Mit einer wirklichen Definition beginnen, oder eben schreiben, daß es eine solche nicht gibt. Außerdem stört mich die fehlende Trennung zwischen Daten und Informationen. Bei der Kurzzusammenfassung der Shannonschen Informationstheorie fehlt ein Verweis

auf Shannon, obwohl dieser dann durchaus in den Quellenangaben genannt wird. Hmmm ... werde mich vielleicht in den nächsten Tagen da mal etwas einbringen :o) Markus Schaal





Hallo!

Die Verbindung zur Energie und Materie habe ich deswegen gebracht , weil es m.E. die 3 grundlegenden Begriffe der Naturwissenschaften sind, die in vielfältiger Weise miteinander verknüpft sind .

Man sie auch anders bezeichnen : Strahlung - Stoff und Struktur.

Jeder soll eben auch einmal selber nachdenken, was für ihn die Basisbegriffe sind, auf die er seine Vorstellungen von der Welt aufbaut.


Der reine Materialismus hat ja immer nur Energie und Materie als grundlegend zugelassen , mit dem

Begriff Information ( oder Struktur,Muster etc) kommt es aber zu einer entscheidenden Erweiterung des naturwissenschaftlichen Denkens, auch wenn sich zb die Physik dem Begriff Information noch nicht so klar geöffnet hat.


Auch wenn die Definition eines solchen grundlegenden Begriffes schwierig ist, sollte man sie trotzdem versuchen . Ich habe das mit den Basisaussagen zur Information versucht.


Der Text ist ein Anfang und eine Diskussionsanregung , kein abgeschlossenes Thema. Verbesserungen und Diskussionsbeiträge sind sehr willkommen.


Daten und Information hängen eng zusammen .

Vielleicht kann man Daten als Informationseinheiten bezeichnen .


Sehr interessant finde ich die Frage, wie bedeutsame Information entsteht und wie sich [[Zufall]]sinformation von geordneter Information unterscheidet.



[[rho]]



Ich würde die Definition etwa so beginnen: Im heutigen Verständnis setzen sich Informationen aus Struktur und Bedeutung zusammen. Die Struktur der Information "Es ist heiß" wäre beispielsweise die Abfolge der Zeichen "E","s"," ","i", usw.

im lateinischen Alphabet. Die Bedeutung besteht darin, daß die Temperatur hoch ist. Weiterhin kann aus einer Information natürlich auch Handeln abgeleitet werden, etwa die Vermeidung unnötiger Arbeitsgänge solange es heiß ist. Dieser Aspekt wird auch als Pragmatik der Information bezeichnet. Zum Teil wird auch reine Struktur als Information bezeichnet. Um die Klarheit des Konzeptes Information zu erhöhen, werden reine Strukturen in diesem Text als Struktur oder Daten und nicht als Information bezeichnet werden.



(Es ist mir klar, daß dies nur eine von mehreren möglichen Definitionen ist, aber es ist immerhin eine Definition)



Danach dann erst das Verhältnis von Information zu Materie und Energie. Doch auch hierzu habe ich noch eine Anmerkung.

Dein Text beschreibt eigentlich nicht das Verhältnis zu Materie und Energie, sondern er sagt nur, daß es neben Materie und Energie eben noch etwas drittes gibt. Dazu habe ich zwei kritische Fragen:

1) Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen

Energie und Materie? Falls nein, welchen Informationsgehalt trägt dann das Bild von der Dreieinigkeit?

2) Gibt es nicht noch weitere wichtige Konzepte neben Energie, Materie, Information? Zum Beispiel Zeit?



Ich denke im übrigen, daß Daten und Strukturen in der Tat Informationseinheiten sein können. Hierbei ist zu berücksichtigen, daß die Einheit typischerweise nicht festgelegt ist.



Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information ... was immer das auch

heißen mag. Auf der Bedeutungsebene mglw. schon. Bedeutung der Information entsteht m.E. immer dadurch, daß eine

Bedeutung zugeordnet wird. Mich würde interessieren, was man unter der Zuordnung von Bedeutung versteht. Die Evolution hat beispielsweise sehr viel bedeutsame Information hervorgebracht, deren Bedeutsamkeit alleine aus dem Erfolg erwächst, ohne Beurteilung durch den Menschen.



Gruß, Markus



Antwort rho:

Mir scheint es wichtig, zunächst einmal Information völlig unabhängig vom Menschen zu definieren.

Es gab Information nach meinem Verständnis bereits lange bevor es Menschen gab.

Es gab informationsverarbeitenden Systeme wie zb lebende Zellen oder Nervensysteme in Tieren.

Auch die Entstehung von bedeutsamer Information kann völlig ohne menschliches Zutun erfolgen.

Die ganze biologische Evolution ist ein Prozess der Entwicklung von bedeutsamer Information.



Der Fachbegriff für Bedeutung ist die Semantik und Pragmatik.

Auch hier gilt semantische und pragmatische Information kann sich völlig unabhängig vom Menschen entwickeln.



Dann kann man sich fragen, wie unterscheidet sich bedeutsame Information von nicht bedeutsamer Information.

Wenn man nur die Zeichenfolge einer Informationssequenz anschaut kann man darüber schon gewiße Aussagen treffen.

Eine völlig gleichförmige Informationsfolge zb 101010101010101010101010 hat relativ wenig Bedeutung.

Eine völlig zufällige Informationsfolge hat auch wenig Bedeutung.

Bedeutsames liegt also immer zwischen den 2 Extremen völlig gleichförmige Ordnung und [[Zufall]]sreihe.



Ob der Begriff Information wirklich eine echte, eigenständige Entität im philosophischen Sinne sein kann, weiß ich auch nicht.

Es ist bis heute offen, ob es Infonen oder die Weizäckerschen Uralternativen unabhängig von Energie und Materie gibt.

Ich habe das die Gretchen Frage der Informationstheorie bezeichnet.



Jedenfalls ist der Begriff Information sehr gut brauchbar, er ist sehr grundlegend und wichtig und er ist einigermaßen neutral.

Auch Raum und Zeit sind solche grundlegenden Begriffe. Bei beiden Begriffen streiten sich die Physiker auch, ob es nur Eigenschaften von Energie und Materie sind oder ob sie eine eigenständige physikalische Existenz haben, wie das die klassische Physik angenommen hat.



Man kann die Physik auf den drei Begriffen Energie, Materie und Information aufbauen oder man sucht sich andere Begriffe wie Feld, Kraft, Entropie . Auch darauf läßt sich ganz gut die Physik aufbauen.

Welche Begriffe dann die unterste Ebene bilden ist Ansichtssache und muß pragmatisch entschieden werden.



Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen Energie und Materie?

Das kann ich auch nicht klar beantworten. Manche Physiker sehen da eine Ähnlichkeit.

So behauptet Stonier , daß Materie in Energie und Energie in Information umgerechnet werden kann.

Wobei die Dimensionsstufen immer einige Zehnerpotenzen auseinanderliegen.

So kann man aus sehr wenig Materie eine große Menge Energie erzeugen und das läuft in der Sonne auch so ab.

Ähnlich soll man aus einer kleinen Menge Energie eine sehr große Menge Information erzeugen können.

Hier komme ich persönlich nicht mehr mit, denn bislang wurde eben reine (nackte ) Information nie nachgewiesen.

Fest steht aber, die Information, die in der Struktur von Materie gespeichert ist kann in die Struktur einer elektromagnetischen Welle umgewandelt werden und umgekehrt.



Deine Aussage "Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information" ist meines Erachtens nicht korrekt.



Man kann zb 01 Folgen statistisch betrachten und schon recht gut herausfiltern, ob es sich um Zufallsinformation oder nicht zufällige Information handelt.

siehe dazu zb: Mein Programm 01 Statistik.

*http://home.t-online.de/home/0926161717-0002/prg01st.htm

Mfg Rho


:Habe zwei Quellen - Rechenberg und Werner -, die auch in der allgemeinen Literatur genannt werden, als explizite Quellen mit Seitenangaben ergänzt. Die 4er-Hierarchie erscheint in diesen Quellen nur implizit. Eine bessere Quelle für die 4er-Hierarchie wäre immer noch wünschenswert. --[[Benutzer:Tpreu|Tpreu]] ([[Benutzer Diskussion:Tpreu|Diskussion]]) 18:17, 3. Sep. 2023 (CEST)

Aktuelle Version vom 2. November 2023, 13:01 Uhr

Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Information“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Das Bit als kleinste Informationseinheit[Quelltext bearbeiten]

Ich könnte mir folgendes Denken: Information ist ...., die kleinste Informationseinheit ist das BIT -> Nun zuerst nachlesen, was ein Bit ist. Jetzt kann man auf dieser Basis die unterschiedlichen Aspekte von Information entwickeln. Ich bin gerne bereit, hier mitzuarbeiten Benutzer:Rainer Nase 07:46, 19. Jan. 2003

(wie macht man den Zeitstempel automatisch?)

Dieser Abschnitt kann archiviert werden. Bits werden seit längerem im Artikel thematisiert. ---<)kmk(>- (Diskussion) 05:56, 20. Jan. 2019 (CET)

Lesenswert-Diskussion Nov. 2005[Quelltext bearbeiten]

Information (von lateinisch: informare 'bilden, durch Unterweisung Gestalt geben') ist ein potenziell oder tatsächlich vorhandenes nutzbares oder genutztes Muster von Materie und/oder Energieformen, die für einen Betrachter innerhalb eines bestimmten Kontextes relevant ist. Wesentlich für die Information ist die Wiedererkennbarkeit sowie der Neuigkeitsgehalt. Das verwendete Muster verändert den Zustand eines Betrachters – im menschlichen Zusammenhang insbesondere dessen Wissen. Formaler ist Information die Beseitigung von Unbestimmtheit.

Pro Antifaschist 666 23:50, 7. Nov. 2005 (CET)Beantworten

Üblicherweise begründet hier derjenige, der zuerst mit "Contra" stimmt, seine Meinung. Nicht zuletzt um den Autoren einen Hinweis zur Verbesserung des Artikels zu geben. --Bender235 00:51, 14. Nov. 2005 (CET)Beantworten

Informieren hat nicht nur die Bedeutung von "unterrichten" oder sich "Kenntnis zu verschaffen über irgend etwas". Informieren hat auch etwas zu tun mit in-formare - etwas formen. Wer informiert, der kann beeinflussen, formen, etwas in eine bestimmte Form bringen, indem er es auch in einer bestimmten Form vermittelt (Nachricht jemanden nach etwas richten). Wenngleich wir davon ausgehen können, dass jeder Mensch geprägt ist und dazu neigt, eher das zu glauben, was seine Meinung bestätigt, so lässt er sich trotzdem von Inhalten beeinflussen, die ihm vorgelegt werden. Gedanken lassen sich allein schon insofern steuern, als der Informant darüber bestimmt, was wir denken oder reden sollen. Er bestimmt das Denktraktandum. Es ist deshalb nicht verwunderlich, wenn z.B. bei Jugendlichen, die sich dauernd mit dem Thema Drogen auseinandersetzen müssen, plötzlich auch mit Drogen experimentiert wird. Das gedankliche Fokussieren hat allmählich unbewusst Interesse und Neugierde geweckt. Die Medien, welche die Themen und Bilder auswählen und bestimmen können, verfügen über ein grosses Machtmittel im Bereich Beeinflussung. Dann, wenn Information zur Desinformation wird, gilt es bei Beeinflussungsprozessen wachsam zu sein. Vorab dann, wenn der Informierende übertreibt, bewusst verknappt (Themen ausklammert) überbewertet, verdreht oder absichtlich oder unabsichtlich verfälscht. In Krisen- und Kriegssituationen hat sich bestätigt, wie wichtig Informationen als Beeinflussungselemente sind (2. Weltkrieg, Vietnamkrieg, Golfkrieg usw.) Wer informiert und wer informiert wird, muss sich ferner damit abfinden: Jedermann ist präformiert, das heisst geprägt, und kann das Subjektive nie vollständig ablegen.

Qualitative und quantitative Information[Quelltext bearbeiten]

"Die grosse Tragödie unserer Gesellschaft ist, dass wir quantitativ über - und qualitativ unterinformiert sind. Wir wissen bedeutend mehr als unsere Vorfahren, doch wir wissen es bedeutend weniger gut, Wir müssen besser informiert werden im wahren Sinne des Wortes: auf bessere Weise, nicht durch mehr Informationen. Zu oft geht das Spektakuläre dem Wesentlichen vor, das Wichtige wird von Unfällen und Verbrechen überlagert, das Bedeutsame vom Sensationellen verdrängt. Überbordende Quantität und unzureichende Qualität bewirken eine ernsthafte Desinformation der Information, die viele Leute daran hindert, klarzusehen und Zusammenhänge richtig zu erkennen."

Quelle P.Lévy (Informationschef Europarat)

Definitionen in verschiedenen Wissenschaften/Anwendungsbereichen (Entwurf)[Quelltext bearbeiten]

Der Begriff „Information“ ist nicht einheitlich und allgemeinverbindlich definiert [ref offen]. Anschließend finden sich Definitionen aus verschiedenen Bereichen. Die folgenden Kriterien beschreiben den Begriff Information weitgehend allgemeingültig, d.h. unabhängig von konkreten Anwendungsgebieten(~):

  • Informationen basieren i.d.R. auf 'Daten', sind aber nicht identisch mit dem Datenbegriff
  • Es entsteht 'Wissenszuwachs' beim Empfänger in einem bestimmten Kontext, also empfänger-/situationsabhängig
  • Zu unterscheiden sind die Ebenen Code, Syntax, Semantik, Pragmatik
  • Unabhängig vom Auslöser des Info-Transfers: Empfangen nach aktivem Senden (Zeitung) oder 'abrufen' durch den Empfänger (Internet)
  • ...

Muster[Quelltext bearbeiten]

  • Definition: xxxx <referenzen>
  • <Erläuterungen>

(einzelne Definitionen)[Quelltext bearbeiten]

VORBY; Hier vorläufig nicht als Gliederungspunkte formatiert

=== Informatik ===
=== Ingenieurwissenschaften, insbesondere
Informationstheorie, Nachrichtentechnik ===
  • Definition: < noch raussuchen, sinngemäß: Daten, die den Zustand eines Systems verändern. Steht irgendwo ziemlich am Anfang von A mathematical theory of communication >
  • Alternative Formulierung: Information ist der Anteil eines Signals (bzw. von Daten) der interpretierbar aber nicht vorhersehbar ist.

Grundlage des Informationsbegriffs in der Nachrichtentechnik ist die Arbeit „A mathematical theory of communication“ (dt.: Mathematische Grundlagen in der Informationstheorie)[1][2] von Claude Shannon. Er sieht Information nicht als eine Eigenschaft bestimmter Daten an, sondern als Eigenschaft eines Verarbeitungsprozesses dieser Daten durch den Empfänger oder eines verarbeitenden Systems. Die selben Daten können je nach Kontext also einmal Informationen darstellen, in einem anderen Fall aber nicht.

In späteren Arbeiten hat Shannon seine Theorie weiter ausgebaut: „Communication in the presence of noise“[3] (Nachrichtenübermittlung bei vorhandenen Störungen) und „Communication Theory of Secrecy Systems“[4] (Theorie verschlüsselter Kommunikation)

Shannons Theorie bildet die Grundlage für die Auslegung aller Arten von Datenübertragungs-Systemen, sowie für Datenkompression und lieferte wichtige Grundlagen für die Kryptographie als wissenschaftlicher Theorie.

Missverständnisse:
Für die Fähigkeit eines Signals oder Datenstroms Informationen zu transportieren hat Shannon den Begriff der Entropie eingeführt. Es hält sich weithin das Missverständnis, dass die Entropie ein Maß für den Informationsgehalt sei. Das ist aus zwei Gründen falsch:

  • Die Entropie ist ein Maß für die Fähigkeit Information zu transportieren. Es stellt damit eine Obergrenze dar. Die Entropie lässt aber keine Aussage darüber zu, ob diese Fähigkeit tatsächlich dazu benutzt wird Information im Shannon'schen Sinne zu übertragen, oder die Daten z.B. redundant sind oder vom Zielsystem interpretiert werden können.
  • Die Entropie bezieht sich nicht auf einen Informations-Gehalt, sondern auf eine Informations-Dichte, nämlich Bit pro übertragenem Zeichen. Um auf die Obergrenze der Informations-Gehalts zu kommen muss die Entropie noch mit der Anzahl der Zeichen multipliziert werden.
Anmerkung

Das Missverständnis hält sich wohl auch deshalb so hartnäckig, weil es im entsprechenden Artikeln in Wikipedia fehlerhaft dargestellt ist. Leider fehlt mir im Moment die Zeit, das mal sorgfältig und mit Quellen untermauert durchzuarbeiten. --MRewald (Diskussion) 14:15, 21. Jul. 2018 (CEST)Beantworten

=== Informationsökonomik ===
=== Semiotik ===
=== Informationswissenschaft, Dokumentations- und Ordnungslehre, Bibliothekarisches Grundwissen ===

Siehe derzeitiger Artikeltext

Anmerkung

Der derzeitige Artikeltext verwendet die Vokabeln Signal und Nachricht, die in der Nachrichtentechnik eine definierte Bedeutung haben. Die Annahme, dass die Bedeutung in der Dokumentations- und Ordnungslehre identisch ist, halte ich für kühn. Das sollte zumindest geprüft werden und gegebenenfalls die Unterschiede erläutert.

=== Mathematik ===
=== Allgemeiner Sprachgebrauch ===

Im allgemeinen Sprachgebrauch wird zwischen Daten und Informationen oft nicht unterschieden. --MRewald (Diskussion) 19:55, 21. Jul. 2018 (CEST)Beantworten

=== Philosophie ===
=== Biologie ===
=== Neuroinformatik ===
=== Soziologie ===
  1. Claude Elwood Shannon: A Mathematical Theory of Communication. In: Bell System Technical Journal. Band 27. Short Hills, 1948, ISSN 0005-8580, S. 379–423, 623–656 (ieee.org [abgerufen am 21. Juli 2018]).
  2. Am Anfang war das Bit: zum 100. Geburtstag von Claude Shannon. In: heise online. Abgerufen am 30. April 2016.
  3. Claude Elwood Shannon: Communication in the presence of noise. Nachdruck. Das Original wurde 1948 veröffentlicht. In: MIT (Hrsg.): Proceedings of the IEEE. Band 86, Februar 1998 (mit.edu [PDF; abgerufen am 21. Juli 2018]).
  4. Claude Elwood Shannon: Communication Theory of Secrecy Systems. Nachdruck. Original wurde 1949 veröffentlicht]]. Hrsg.: UCLA. (ucla.edu [PDF; abgerufen am 21. Juli 2018]).

Diskussion zu den Entwürfen[Quelltext bearbeiten]

Hi @MRewald, zu Nachrichtentechnik: Nach meiner Vorstellung sollten die einzelnen Kapitel sehr viel kürzer ausfallen. Die jeweilige Sicht wäre dann zunächst verständlicher und könnte mit anderen Sichten leichter verglichen werden. Ob 'Entropie' wirklich nur der Nachrichtentechnik zugordnet werden kann? Lt Entropie (Informationstheorie) (auf das Du dich wohl inhaltlich beziehst) ist das anscheinend nicht der Fall, sondern stammt aus deer 'Informationstheorie'. Wahrscheinlich überschneiden sich verschiedene 'Wissensgebiete' diesbezüglich erheblich, gerade deshalb sollten wir hier nur ganz kurz das Wesentliche beschreiben. Mehr könnte man ggf. in eigenen Artikeln unterbringen, sodass hier wirklich nur Allgemeingültiges steen würde. --VÖRBY (Diskussion) 16:11, 21. Jul. 2018 (CEST)Beantworten

Hi @VÖRBY: Das Wort Entropie ist der Physik und der Chemie entlehnt und wurde meines Wissens von Shannon in der zitierten Arbeit für die Informationstheorie eingeführt. Shannon gilt als Begründer der Informationstheorie, deshalb sehe ich da keinen Widerspruch zwischen Informationstheorie und Shannon. Es gibt allerdings Vorarbeiten, zu denen zum einen sicherlich Shannons Doktor-Vater en:Frank Lauren Hitchcock gehört, ebenso seine älteren Kollegen Harry Nyquist (Nyquist-Shannon-Abtasttheorem), Ralph Hartley (Shannon-Hartley-Gesetz). Beiträge geleistet hat sicherlich auch seine Kollegin und spätere Ehefrau en:Betty Shannon, auch wenn sie als Co-Autorin in den Veröffentlichungen nicht genannt wird. Ebenso könnte man Shannons Doktorarbeit An Algebra for Theoretical Genetics im weiteren Sinne zu den Voarbeiten rechnen.
Das habe ich jetzt so schnell greifbar, weil ich es einfach aus einem Vortrag kopieren konnte, den ich vor einigen Monaten gehalten habe.
Was das Kürzen anbelangt, kann ich Deinen Wunsch gut nachvollziehen. Wir sind hier aber ja im Diskussions-Forum und es muss nicht alles in den Artikel übernommen werden. Insbesondere meine Anmerkung ist für den Artikel wohl eher nicht geeignet. Als Hintergrund-Information würde ich die Angaben, hier im Diskussionsforum, aber gerne stehen lassen, weil die Abweichungen zu anderen Wikipedia-Artikeln sonst nicht nachvollziehbar sind.
--MRewald (Diskussion) 16:59, 21. Jul. 2018 (CEST)Beantworten
Den Abschnitt Informationstheorie und Informationswissenschaft halte ich für etwas unglücklich gewählt.
Informationstheorie ist die mathematische Theorie, die von Shannon begründet wurde. Der Informations-Begriff ist damit identisch mit dem der Nachrichtentechnik. Informationswissenschaft dagegen hat einen engen Bezug zu Archiv- und Bibliothekswissenschaft und ist damit historisch erheblich älter. Es dürfte sich IMHO eher in Richtung der Überschrift Dokumentations- und Ordnungslehre bewegen. Da es dabei auch nicht um die Übermittlung von (potentieller) Information geht, sondern um deren Ordnung und Auffindbarkeit, vermute ich, dass sich der Informations-Begriff hier an wesentlich statischeren Vorstellungen orientiert. Das ist schon ein erheblicher Unterschied zu Shannon.
--MRewald (Diskussion) 20:15, 21. Jul. 2018 (CEST) überarbeitet --MRewald (Diskussion) 20:46, 21. Jul. 2018 (CEST)Beantworten
Du kannst das gerne anpassen. --VÖRBY (Diskussion) 08:43, 22. Jul. 2018 (CEST)Beantworten
Ok, ich wollte die Stichworte nicht löschen und habe sie deshalb etwas gruppiert, wie sie IMHO zusammen gehören. Vermutlich könnte man noch weiter gruppieren, aber von Gebieten, mit denen ich mich zu wenig auskenne habe ich die Finger gelassen.
Da mir das Thema im Moment etwas durch den Kopf geht, formuliere ich mal eine Hypothese zu den Kriterien von Information. Ein wesentlicher Unterschied scheint mir zu bestehen zwischen
* Informations-Übermittlung und
* Speichern und Bereithalten von Informationen
Beim Info-Transfer, werden die Daten entgegen genommen, wie sie sind und es geht um die lediglich kategorisiert unter dem Aspekt: Können die Daten verworfen werden oder müssen sie weiter geleitet werden. Eine weitere Sortierung oder Gruppierung findet nicht statt. Im Vordergrund steht dabei ein aktuell laufender Prozess, die Kriterien dafür, Daten zu verwerfen liegen stärker auf der Seite, sie zu verwerfen.
Beim Speichern von (potentiellen) Informationen geht es dagegen schwerpunktmäßig darum, die Daten so zu ordnen, dass sie bei Bedarf wieder gefunden werden können. In zweiter Linie dann schon auch, ob sie zu einem spezifischen Fachgebiet etwas beitragen oder nicht. Die Kriterien, ob Daten aufgenommen oder verworfen werden, werden in diesem Fall vermutlich auf der Seite liegen: "Wir wissen noch nicht, ob das nochmal zu gebrauchen sein wird. Im Zweifel eher speichern". VÖRBY: Das trifft nur auf den Begriff 'Daten' zu.
Das impliziert die folgende Unterscheidung:
* wird die Eigenschaft fest gemacht an einen konkreten Bearbeitungsprozess (die technische Sicht) oder
* wird die Eigenschaft daran fest gemacht, ob es für irgend jemanden in der Zukunft eine Information darstellen könnte (Bibliothekars-Sicht) VÖRBY: Dann ist das jetzt noch keine Information
Gemeinsam ist den beiden sicherlich: Was wert ist, gespeichert zu werden ist eine Information, alles Andere sind Daten ohne Informations-Charakter.
Kriterien, was eine Information ist, oder nicht, könnten sein:
* Kann es interpretiert werden? (ist es z.B. in einer passenden Sprache geschrieben, ist es verschlüsselt und verfüge ich über den Schlüssel)
* Ist es bereits bekannt?
* Kann es in einen bekannten Kontext eingeordnet werden?
* Hat es Konsequenzen?
* Ist es von Interesse?
Mit Ingetraut Dahlberg habe ich mich z.B. darüber gestritten, ob statistische Analysen Information vernichten oder generieren.
* Die Position der Informationswissenschaftlerin dabei: Die ursprünglichen Daten hätten noch nach verschiedenen Aspekten ausgewertet werden können, die in der statistischen Aggregation nicht mehr erkennbar sind, also wurde Information vernichtet.
* Meine (technische) Position: Ein Datenwust, der so komplex ist, dass ich vor lauter Bäumen den Wald nicht mehr sehe, enthält für mich keine Informationen, da ich ihn nicht interpretieren kann. Die Verkürzungen, die durch eine statistische Analyse unbestritten erzeugt werden, reduzieren den Datenumfang soweit, dass ich überhaupt erst in die Lage versetzt werde, etwas zu verstehen, also wird dadurch Information überhaupt erst erzeugt, folglich also hinzugefügt.
Das geht jetzt etwas in Richtung Theorie-Findung, aber vielleicht inspiriert es den Einen oder die Andere in der Runde, eine Literaturstelle zu finden, mit der es dann wiki-würdig wird.
--MRewald (Diskussion) 13:44, 22. Jul. 2018 (CEST)Beantworten
Hallo @MRewald. Ich fürchte, mit Deinen Ansätzen beginnt wieder (mal) eine ganz neue Diskussion; wie in der Disk schon häufig begonnen und kaum beendet. Meine Meinung (bin kein Info-Wissenschaftler!) dazu war/ist, dass der Artikel lediglich noch unterschiedliche Definitionen gegenüberstellen sollte; die Grund-Eigenschaften von Informationen sind im Artikel bereits korrekt behandelt. Das wäre dann also eine kleine Ergänzung/Überarbeitung.
So wie ich den Begriff 'Information' interpretiere, ist das ein recht abstrakter Sachverhalt: Erst beim (jeweiligen!) 'Empfänger' und abhängig von dessen 'Wissensbedarf' in einem bestimmten 'Kontext' entsteht "Information"; siehe derzeitiger Einleitungssatz und Aussagen unter 'Eigenschaften' etc. Wenn von 'Speichern' und 'Auswerten' die Rede ist, dann bezieht sich das ausschließlich auf 'Daten', denn Informationen im definierten Sinn können nicht gespeichert werden - außer in der Bedeutung als Synonym für Daten. Ich stimme Dir also zu: Bei statistischen Auswertungen/Analysen werden keine Informationen vernichtet, sondern es entstehen zunächst neue Daten - die potenziell zu Informationen werden können; so wie aus den der Analyse zugrunde liegenden originären Daten ebenfalls wieder (und mehrfach) Informationen werden können.
Eine ganz andere Möglichkeit wäre, den Artikel vollkommen neu zu schreiben. Da bin ich aber 'draußen'.
Grüße von --VÖRBY (Diskussion) 17:34, 22. Jul. 2018 (CEST); ergänzt: --VÖRBY (Diskussion) 12:17, 8. Aug. 2018 (CEST)Beantworten
In Anbetracht des wirklich desaströsen Zustandes dieses Artikels, der keinerlei enzyklopädischen Wert hat, finde ich diese Vorstellung attraktiv. Insbesondere deswegen, weil eine Mehrheit an Personen und Referenzen zwischen Daten und Informationen klar unterscheidet und Du nicht. 16:32, 26. Jul. 2018 (CEST) West of House (Diskussion)
Neu schreiben: Wer tut das? Nach welchen Belegen? Nur zu!
So desaströs finde ich ihn ja nun nicht, schließlich sind alle wesentlichen Aspekte 'belegt'. Ich denke, sie basieren i.W. auf der Schnittmenge von Kriterien aus verschiedenen Definitionen. Trotzdem könnten/sollten mehrere Definitionsunterschiede klarer herausgestellt werden, die Absicht des o.a. Abschnitts.
"Und Du nicht:" Lies den Artikel mal genau, dann wirst Du sehen, dass die Gleichsetzung von Information und Daten von 4 genannten Quellen als lediglich "umgangssprachlich gleichbedeutend" beschrieben werden - was wohl auch nicht falsch ist (und deshalb erwähnenswert). --VÖRBY (Diskussion) 10:10, 27. Jul. 2018 (CEST)Beantworten

Sind die Aktivitäten hier eingeschlafen? Meine Sicht: Wenn es Texte zu weiteren Bereichen für Informationsdefinitionen gibt, können diese in diesem Abschnitt ergänzt werden. Ich schlage vor, den QS-Baustein demnächst zu löschen.--VÖRBY (Diskussion) 12:53, 22. Aug. 2018 (CEST)Beantworten

Was mich betrifft, war ich ausgiebig in Urlaub und bin auch in der nächsten Zeit etwas knapp mit der Zeit.
Was die bisherige Diskussion angeht: Wenn es tatsächlich eine einheitliche Sichtweise über alle Disziplinen gibt, würde ich das zwar sehr begrüßen. Allerdings hatte ich in der Vergangenheit schon heftige Diskussionen, in denen Vertreter anderer Disziplinen eine andere Vorstellung von Information vertreten haben und dafür auch reklammiert haben, dass das keine umgangssprachliche Vorstellung ist. Ich bin deshalb nicht sehr optimistisch, dass es über alle Fachgrenzen hinweg eine einheitliche Vorstellung gibt.
Ich selbst kann nur für die Nachrichtentechnik sprechen, denke aber dass diese Vorstellung über die Nachrichtentechnik hinaus weitgehend auch im restlichen Ingenieurbereich geteilt wird. Es scheint aber zumindest Unterschiede zu den Informatikern und zu den Bibliothekaren/Informationswissenschaftlern zu geben.

--MRewald (Diskussion) 13:23, 22. Aug. 2018 (CEST)Beantworten

Hallo, willkommen zurück (aus dem Urlaub). Dass es Unterschiede gibt, ist zweifelsfrei. Diese zu beschreiben ist das Ziel des entsprechenden Abschnitts. Die bisherigen Texte im Artikel behandeln m.E. Aspekte, die über die Disziplinen hinweg wohl einheitlich gesehen werden - zur Einleitung den intraindividuellen Wissenszuwachs in einem bestimmten Kontext, 'Info-Kanal', Sender/Empfänger usw. Auch die Bedeutungsschwerpunkte, die Eigenschaften und Beispiele und die strukturellen Aspekte sind m.E. mehr oder weniger allgemeingültig, vielleicht manchmal etwas zu detailliert beschrieben (wie Modelle/Kommunikationsmodell, Transport, Entstehung ...). Trotzdem denke ich, man kann im Abschnitt (.. verschiedene Wissenschaften) Unterschiede der jeweilien Definitionen kurz erläutern - mit Quelle; das sollte dann genügen. Für breitere Abhandlungen müsste man wohl spezielle Artikel halten (wie 'Information (Soziologie)' u.a.). --VÖRBY (Diskussion) 16:44, 22. Aug. 2018 (CEST)Beantworten

Letzte Überarbeitung[Quelltext bearbeiten]

Hi @KaiMartin, Deine Überarbeitungen haben m.E. einige zum Verständnis beim Leser nicht unwesentliche Aspekte zu Information 'wegrationalisiert'. Dies sind:

  • in [1]: 'menschen ... Systeme' als mögliche Empfänger; 'aktionsprägend': nützliche Präzisierungen.
  • in [2]: 'filtern, erweitern, verknüpfen' als i.Z. mit der Nutzung von Informationen durch den Empfänger wesentliche Aspekte.

Magst Du nochmal drüberschauen? --VÖRBY (Diskussion) 09:47, 20. Jan. 2019 (CET)Beantworten

@KaiMartin, ich würde ansonsten diese Angaben wieder in Kurzform einstellen.--VÖRBY (Diskussion) 17:03, 22. Jan. 2019 (CET)Beantworten
Die entfernten Textpassagen finden sich in 'zig' Online-Fundstellen wieder. Auch wenn nicht immer klar ist, wer von wem abgeschrieben hat: Sie wurden in 'namhaften' Sites und Büchern wörtlich oder sinngemäß übernommen. gelten also bei jenen Autoren als Lemma-relevante Aussagen/Eigenschaften.--VÖRBY (Diskussion) 12:36, 26. Jan. 2019 (CET)Beantworten

Ich habe das heute entsprechend wieder ergänzt. Siehe [3]--VÖRBY (Diskussion) 12:48, 28. Jan. 2019 (CET)Beantworten

Definition zu eng[Quelltext bearbeiten]

Beispiel: 'Genetischer Code': Der Artikel wird dem Gebrauch des Begriffs in der Biologie nicht gerecht, praktisch unterschlägt er ihn sogar. Oder ist das woanders schon richtig dargestellt? Als Anhaltspunkt: Paul Nurse in "Was ist Leben" nennt Information als eines der 5 wesentlichen Charakteristika von Leben schlechthin. --Bleckneuhaus (Diskussion) 16:40, 8. Feb. 2022 (CET)Beantworten

Die Definition ist also zu eng, auch hier: Die Einleitung („Beim Empfänger führt die Information zu einem Zuwachs an Wissen.“) beschränkt den Begriff offenbar auf Empfänger, die so etwas wie Wissen haben können. Das schließt so wichtige Anwendungsgebiete wie biologische Prozesse (Vererbung, Stoffwechsel, Immunreaktion, .... .... ) aus, fälschlich. --Bleckneuhaus (Diskussion) 16:46, 8. Feb. 2022 (CET)Beantworten

Hallo, und Danke für Deine Hinweise. Vorschlag: Ergänze den artikel entsprechend, z.B. in "Der Begriff in verschiedenen Wissenschaften/Fachrichtungen". Der Abschnitt "Information als Veränderung" beschreibt ein sehr allgemeines Charakteristikum - das evtl. auch in den von Dir genannten Zusammenhängen zutrifft. So wie auch "Wissenszuwachs" etwas sein könnte, das auch im Bio-Bereich, dort vlt mehr oder weniger indirekt zutrifft. Sorry, ich habe Deine beiden Hinweise zu einem zusammengefasst.--VÖRBY (Diskussion) 12:02, 9. Feb. 2022 (CET)Beantworten

Fehlende Referenzen im Abschnitt "Struktur und Bedeutung"[Quelltext bearbeiten]

Im Abschnitt "Struktur und Bedeutung" hat es keine Referenzen. Der Abschnitt scheint eine inhaltlich weitreichende Ausdifferenzierung der bekannten Semantik-Syntax-Dualität zu sein. Die Richtigkeit bezweifle ich nicht, Quellen wären trotzdem wünschenswert. Evtl. ist das Material für Kommunikationswissenschfler:innen, Kognitionswissenschaftler:innen u.Ä. standard, mir ist es nicht geläufig.

Der Punkt "Codierung" wurde von [4] eingefügt. Siehe [5].

Die anderen drei Ebenen sind erstmals in der Version [6] von [7] genannt.

Vielleicht können diese Nutzer ja Quellen beisteuern.

In der englischen Wikipedia hat es im Artikel zu Linguistik [8] ein Diagramm, das diese 4er-Hierarchie im kontext der Linguistik auf eine 6er-Hierarchie erweitert [9]. Im Abschnitt über Grammatik [10] wird diese Hierarchie durch weitere Kategorien verfeinert. Ob und wie diese für die Linguistik offenbar belegte Einteilung auch für die Informationstheorie, bezüglich derer dieser deutsche Wikipediaartikel den Begriff Information klären will, allgemein gilt, ist mir nicht klar. Es bräucht also Belege für diese Hierarchie im Kontext der Informationstheorie.

--Tpreu (Diskussion) 19:05, 2. Sep. 2023 (CEST)Beantworten

Habe zwei Quellen - Rechenberg und Werner -, die auch in der allgemeinen Literatur genannt werden, als explizite Quellen mit Seitenangaben ergänzt. Die 4er-Hierarchie erscheint in diesen Quellen nur implizit. Eine bessere Quelle für die 4er-Hierarchie wäre immer noch wünschenswert. --Tpreu (Diskussion) 18:17, 3. Sep. 2023 (CEST)Beantworten