Ankündigung

Einklappen
Keine Ankündigung bisher.

Statistik bei Blindtests

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    Statistik bei Blindtests

    Hallo Leute,

    da ich kein Mathematiker bin mal ne Frage.

    Wir ham doch gesagt, bei einem Blindtest nach David müssen 9 von 10 Treffern funzen oder 18 von 20, um zu beweisen, daß man einen Unterschied hört.

    Müßte man dann für einen Gegenbeweis dann nicht 9 von 10 oder 18 von 20 mal danebenliegen??????????

    Ergo - man hört nur dann nichts, wenn man 9 von 10 mal danebentippt, hört man es auch nur 2 mal heraus ist Davids These widerlegt???????

    Ich kapiere das nicht.

    Liebe Grüße

    Werner

    #2
    RE: Statistik bei Bllindtests

    nein...

    ...das gegenteil eines erfolgreichen blindtests (20/20 richtig) ist NICHT 20/20 falsch sondern ein NICHT erfolgreicher blindtest (7-13 richtig von 20 oder so).

    wenn du sehr viele (hunderte) versuche machst dann liegt die trefferquote bei ungefaehr 50% wenn KEIN unterschied besteht.

    bei so geringen versucheszahlen wie 10-20 hat man fast 10% statistischen fehler.

    wenn man annimmt, dass jemand einen gegebenen unterschied tatsaechlich hoert und ihm zugesteht, dass er sich jedes 10te mal irrt dann sollte er IM DURCHSCHNITT 9 von 10 treffern haben. oder 18 von 20.

    will man statistisch eine aussage machen kann man entweder alles sehr oft wiederholen oder eine hohe abweichung vom mittelwert (50% quote im A/B test) verlangen.

    hat einer zB 20/20 richtig, dann ist die wahrscheinlichkeit dass er zufaellig richtig getippt hat schon sehr klein.

    laege man, wie du sagst, 20 mal (oder 18mal) von 20 mal daneben dann HOERT man wohl einen unterschied aber ordnet ihn falsch zu.

    Kommentar


      #3
      Statistik ist in vielen Fällen nicht mehr ganz anschaulich. Wie CHe55 schrieb, geht man davon aus, daß jemand, der _keinen_ Unterschied _hört_, eben nur rät.

      Wenn wir im Testdesign nur zwei Möglichkeiten der Anwort vorgeben, dann beträgt die Wahrscheinlichkeit durch reines Raten die richtige Antwort zu geben, 50% (wie beim Münzwurf mit "Kopf oder Zahl" ).

      In der Auswertung erlaubt man eine gewisse Wahrscheinlichkeit dafür, daß eine Testperson durch reines Raten trotzdem die ausreichende Trefferzahl erreichen kann, und berechnet danach die gerade noch notwendige Trefferzahl.
      Man könnte immer 100% Trefferquote verlangen, würde aber damit von der Testperson Unfehlbarkeit verlangen, und somit der menschlichen Natur nicht gerecht werden.

      Ein in der Wissenschaft übliches Kriterium wären 5% (SL=0.05), und bei diesem Kriterium muß eine Testperson bei 10 Durchgängen mindestens 9 Treffer erzielen.
      Es leuchtet ein, daß bei höheren Durchgangszahlen die Wahrscheinlichkeit, durch reines Raten ausreichend oft richtig zu liegen, geringer werden wird.
      Deshalb reichen bei 16 Durchgängen 12 Treffer und bei 20 Durchgängen werden auch 14 reichen.

      Die von Kellerkind erwähnte sehr schlechte Trefferquote (z.B. 2 von 20) fällt bei normaler Auswertung "unter den Tisch" , könnte aber bedeuten, daß jemand doch etwas hört, aber aus welchem Grund auch immer, sehr häufig die falsche Antwort gibt.
      An der Stelle führt es sicher zu weit, aber streng genommen, müßte man in diesen Fällen anstelle einer einseitigen Auswertung (die nur danach schaut, ob viel mehr Treffer als beim Raten erreicht werden), eine zweiseitige Auswertung machen (die danach schaut, ob es überhaupt Abweichungen von der Ratewahrscheinlichkeit gibt.

      Auch zu dieser Frage gibt es einen Artikel im JAES:

      Statistically Significant Poor Performance in Listening Tests, Les Leventhal, JAES Volume 42 Number 7/8 pp. 585-587; July/August 1994

      Einen kurzen aber guten Überblick über die zugrundeliegenden Gedankengänge und Probleme lieferte eine Diskussion in der Stereophile (leider in englischer Sprache):

      Editor's Note: In 1985 and 1986, an argumentative thread ran through Stereophile's pages, discussing the benefits or lack of double-blind testing methods in audio component reviewing, triggered by J. Gordon Holt's review of the ABX Comparator. As this debate is still raging nearly 15 years later, we present here the entire discussion that bounced back and forth between the magazine's "Letters" section and features articles. It was kicked off by a letter from C.J.


      Gruß

      Kommentar


        #4
        Hallo,

        es geht um die statistische relevanz eines Ergebnisses.

        Kurz und oberflächlich:
        Da spielen Anzahl der Messungen, die Werte, deren Varianz, die Anzahl der Stichproben, etc. eine Rolle.

        Je weniger Messungen gemacht werden, desto höher ist die Wahrscheinlichkeit, dass der Wert falsch ist, also ein Ausreisser.

        Auch dazu gibt es Formeln, die das bestimmen, z.B. der p-test usw.

        Es wäre relativ leicht, ein statistisches Schema für Blindtests zu erstellen.

        LG

        Babak
        Grüße
        :S

        Babak

        ------------------------------
        "Alles was wir hören ist eine Meinung, nicht ein Faktum.

        Alles was wir sehen ist eine Perspektive, nicht die Wahrheit!"


        Marcus Aurelius

        Kommentar


          #5
          RE: Statistik bei Bllindtests

          Vielleicht ist das Hilfreich:

          Klick mich

          Das finde ich recht praktisch


          Klick mich

          Kommentar

          Lädt...
          X
          👍