Sub:Wikipediaartikel (IQ 150)

Aus Stupidedia, der sinnfreien Enzyklopädie!
Wechseln zu: Navigation, Suche

Zu einfach? Dann wählen Sie eine kompliziertere Variante.
Zu kompilziert? Dann bist du voll doof, Alter! Aber du kannst ja eine andere Version wählen.

Wikipediaartikel dienen einer quali­fi­zierten Mehr­heit der human­oiden Indivi­duen als source de informacíon. Durch die ge­ziel­te Informations­aufnahme eines Wikipedia­artikels er­langt das wissens­begierige Subjekt ein Breviarium über das es inter­essierende Lemma.

Administratorenmeeting bei Chatroulette

Der Filtrierung des Contextes kommt dabei eine be­sonde­re Rolle zugute, da Wiki­pedia­artikel unter dem Prinzip des Frei­en Wis­sens zu leiden haben, welches be­deutet, dass Intel­lektuelle, Sub­intel­lektu­elle, Kory­phäen und tertiäre Ex­perten die Möglich­keit haben, ihre men­talen Leist­ungen zu koppeln, was zu einem Multi­plikator­effekt des Natrium­chlorids in einer warmen, flüs­sig bis brei­igen Speise und der Opazi­tät eines Arti­kels führt. Die Wei­sen der Wiki­pedia er­kann­ten, dass das Differ­ential der Infor­mations­konzen­tration einen Null­durch­gang hatte. Sie ver­anstal­teten ein Meeting bei Chatroulette mit dem Ziel die Benutzer­freund­lich­keit pro­gressiv zu mo­di­fi­zieren. Als Resümee führte Wiki­pedia 2003 zur Unter­stützung des Lesers eine Sym­bolik ein, welche Auf­schluss da­rüber gibt, welches Re­duktions­ver­fahren am Besten ein­ge­setzt werden sollte: Die Unter­schei­dung in normale, lesens­werte und ex­zellente Artikel.


Methode 1: referentielles Multitabbing

Ein recht effi­zientes Ver­fahren beim Studium nor­maler Wiki­pedia­artikel ist das referen­tielle Multi­tabbing. Es zeigt sich, dass in den meisten Arti­keln ein streng mono­ton fal­lender In­for­mations­gehalt ist. Rezi­prok be­deutet dies, dass der Lead-Text höch­ste Priori­tät hat. Jedes Lemma wird somit nur bis zum ersten Uni­form Re­source Ident­ifier er­fasst und das Folge­lemma be­sucht. Diese Methode wird re­kursiv an­ge­wendet bis die ab­sol­ute Dif­ferenz zwischen sub­jektiver Wahr­nehmung des eigenen Ver­ständ­nisses und des ge­wünsch­ten Ver­ständ­nisses zu einer fest­ge­legten Grenze [math]\epsilon_{Inkomp.}[/math] kon­ver­giert.

Die Vorteile dieses Verfahrens liegen auf der Hand:

  • Mehr als 95% des Textes sind un­brauch­bar, trivial oder leicht falsi­fizier­bar. Dies wird ver­mieden.
  • Der Leser bleibt aktiv und er­höht somit das Auf­fassungs­ver­mögen.
  • Das zentrale Nerven­system generiert (in­trin­sisch mo­ti­viert) Muster auf­grund einer quanti­tativ großen Menge an Daten­quanten


Methode 2: contextreduzierende Quellenamplifikation Lesenswert.png

Quellenanalyse

Bei lesens­werten Artikeln em­pfiehlt sich häuf­ig die context­re­du­zier­ende Quel­len­amplifi­kation. Em­pirisch zeigt sich eine Kor­relation von über 0,9 zw­ischen dem Con­text eines lesens­werten Artikels und einem schwarz­en Recht­eck. Das Ver­fahren funk­tioniert in der Art, dass der kom­plette In­halt mit dem stark kor­relier­enden Recht­eck sub­sti­tuiert wird. Der Inhalt lässt sich somit schnel­ler ver­arbeiten.

Statt­dessen wird die Prio­rität auf die Quellen­an­gaben und Einzel­referenzen ge­legt. Lesens­werte Artikel haben eine sehr dif­ferenz­ierte und um­fang­reiche Aus­wahl an weiter­führ­enden Uni­form Re­source Ident­ifiers. Die Ver­läss­lich­keit der Quel­len­angaben kon­ver­giert hin­ge­gen mit der Ver­läss­lich­keit eines part­iell sieb­ähn­lichen Prä­ser­vativs. Eine ei­gene Rech­erche führt zu ana­logen Er­geb­nis­sen, nur dass die bei Wiki­pedia stark über­durch­schnitt­lich ver­brei­teten 404-Ver­weise und die ebenso prak­tizier­ten, stim­mungs­heben­den Ver­weise direkt ad acta ge­legt wer­den kön­nen.


Methode 3: curatives Jauch-Verfahren Exzellent.png

Unterscheidung bei dem cura­tiven Jauch-Ver­fahren in uni­versi­tären Sup­port­ismus, kol­lekt­ives Kol­la­teral­ver­sagen und Seriösitäts­quant­ifi­zier­ung

Ex­zel­lente Artikel haben ein über­durch­schnit­tli­ches In­formations­poten­tial und im Ver­gleich zu den anderen Lem­mas ein mar­ginales In­formations­ge­fälle. Der Anspruch an die Kentnis­se des wis­sens­be­gierigen In­di­vi­duums spie­geln das Niveau des Textes wie­der: Ein aka­demischer Grad im je­weiligen Fach­gebiet ist von Nöten.

Allerdings lehrt auch hier die Em­pirie wieder: Beim Median der Le­ser ent­stehen drei große, farb­neu­trale Frage­zeichen über dem caput. Da der Wiki­pedia wichtig­er ist, dass eine breite Leser­schaft den Netz­auf­tritt an­nähernd kon­stant fre­quen­tiert be­sucht als dass die In­for­mationen ver­ständ­lich und auf ge­steiger­tem Niveau vor­handen sind, gibt sie für ex­zel­lente Artikel die Em­pfehlung des cura­tiven Jauch-Ver­fahrens.

Beim cura-tiven Jauch-Ver­fahren werden nach men­taler Auf­nahme des Artikel­contextes, wel­cher mit in­finite­si­maler Wahr­schein­lich­keit ver­standen wird, [math]\!\,x[/math] (mit [math]x \in \N \cap \{ x \mid 1 \le x \le 3 \}[/math]) der fol­gen­den Ver­fahren zum bes­seren Ver­ständ­nis aus­ge­führt:

1. universitärer Supportismus
Bei dieser Methode wird zur Unter­stützung ein Kol­lege eines anderen In­stitutes, welcher be­sagt­en aka­demi­schen Grad hat, zu Rate gezogen. Event­uell wird diese Methode re­kur­siv vom Kontakt­ier­ten wie­der­holt, was oft in Methode 2 des cura­tiven Jauch-Ver­fahrens mün­det.
2. kollektives Kollateralversagen
Entweder folgt dieses Ver­fahren un­mit­tel­bar auf den uni­versi­tären Sup­portis­mus oder es wird - heut­zu­tage im­mer höher fa­vori­siert - als Erstes ein­ge­setzt. Dabei be­gibt sich der sub­intel­lig­ente Neu­gierige in In­ternet­foren und gibt mit dem Hin­weis: "Kann mir einer mit <ENTER SUBJECT HERE> wei­ter­hel­fen? Ich hat­te das bei der Wiki­petia er­googlet und nicht ver­standen lol." sei­nen Wis­sens­drang preis. Die drei Ant­worten mit der höchsten stoch­ast­ischen Wahr­schein­lich­keit - "Ha! Erster!", "Google ist dein Freund", "Mein Gott, kann den hier NIEMAND die Suche be­nutzen?" - re­sul­tieren aus der Tat­sache, dass auch die meist­en an­deren Men­schen ( [math]\approx \forall[/math]) mit einem ex­zel­lenten Artikel men­tal über­for­dert sind.
3. Seriösitätsquantifizierung
Dieses Verfahren wird im folgenden Abschnitt näher be­handelt.


Methode 4: Seriösitätsquantifizierung Wikipedia.PNG

erste Stufe der Seriösitäts­quantifizierung

Ursprünglich war die Seriös­itäts­quant­ifizier­ung Teil des cura­tiven Jauch-Ver­fahrens. Mit streng mono­ton wach­sender Im­por­tanz (Or­dinate) ge­gen­über der Zeit (Ab­szis­se) die­ser Methode und der Tat­sache, dass diese eine sing­uläre Uni­vers­alität be­sitzt, wurde diese Selek­tions­methode nach dem Prin­zip "surv­ival of the fit­test" als un­ab­häng­ig an­erkannt ( [math]\rightarrow[/math] siehe auch: Un­ab­häng­ig­keit­ser­klär­ung der Seriös­itäts­quant­ifi­zier­ung von 1998).

Diese Methode basiert auf der phil­osophi­schen Hypo­these: "Es gibt andere Quel­len als die Wiki­pedia." Es zeigte sich zu schweren Krisen­zeit­en im Zeit­alter des jungen Inter­nets, gerade als Inter­net­ver­bindung­en nahe bei der Sta­bi­litäts­grenze (Phasen­rand [math]5^\circ \le \varphi \le 10^\circ[/math]) be­trie­ben wur­den, dass diese vage Ver­mutung eine ver­ifizier­bare, reel­wert­ige Lö­sung be­sitzt: 42.

oftmals die richtige Ent­scheid­ung bei der Ser­iös­itäts­quant­ifi­zier­ung

Eine andere, weit ver­breite­te und trivi­alere Lö­sung ist der un­mit­tel­bare Ver­gleich mit einer ge­bund­enen Pa­pier­mas­se. Nahe­liegend er­gibt sich die Frage­stel­lung "Was ist seri­öser? Wiki­pedia oder ein Buch mit wei­ßen Sei­ten?". Durch die an­deren Methoden zeig­te sich, dass ein Lem­ma bis auf den ersten Satz Quark­mechan­isch be­trachtet wer­den kön­ne. Der weitere In­halt gleicht einem schwarz­en Recht­eck und/oder ist für den ge­übten Leser nicht er­giebig und als Quel­le wird bei vielen Lem­ma­ta 404 an­ge­ge­ben. Auf Cellu­lose ge­bündel­tes Wis­sen ge­winnt somit an Be­deut­ung und Ser­iösi­tät. Ein po­pu­läres Er­gebnis der Ser­iösitäts­quant­ifi­zier­ung ist so­mit die Füll­stands­er­höh­ung der digi­talen Re­cycling­stat­ion mit Wiki­pedia­artikeln.


Linktipps: Faditiva und 3DPresso