HiFi Forum  

Zurück   HiFi Forum > SACHTHEMEN > Verblindete Vergleiche

Verblindete Vergleiche Wenn es "um die Wahrheit" geht, führt kein Weg daran vorbei

Antwort
 
Themen-Optionen Ansicht
Alt 14.02.2013, 19:02   #31
LowIQ
Gast
 
Beiträge: n/a
Standard

Die letzten 3 (warens 3 ?) Beitraege sollten meiner Meinung nach ohne dass der Threadersteller dies verlangt vom Moderator geloescht werden.......einfach so......

PS
Hab mich verzaehlt, waren eher 4 bis 5....

Plus diesen Beitrag hier natuerlich....

PSS

was macht mehr Sinn, Personen auszuschliessen oder, als Alternative, was auch immer Posts (zb nix zum Thema, persoenliche Angriffe etc, alte Animositaeten) zu loeschen?

die Diskussionskultur koennte davon profitieren, desgleichen die Vielfalt......von der Alternative.....

Geändert von LowIQ (14.02.2013 um 19:57 Uhr).
  Mit Zitat antworten
Alt 14.02.2013, 19:51   #32
Mike
Erfahrener Benutzer
 
Benutzerbild von Mike
 
Registriert seit: 19.04.2007
Ort: Hamburg
Alter: 49
Beiträge: 3.186
Mike
Standard

Zitat:
Zitat von Babak Beitrag anzeigen
Hallo

Nein gar nicht.

Streitthema ist ja immer wieder, welcher Testansatz "besser" ist.
  • Langzeit-Tests gegen Kurzzeit-Tests
  • Sehend oder verdeckt
  • Umstecken oder Umschaltbox
  • Pegel ausgeglichen oder nicht
  • Musik oder Testsignale
  • Einzel oder Gruppe
  • Holzohr oder Goldohr
  • Lautsprecher oder Kopfhörer
Und weiß der Kuckuck was noch

Doch ob jetzt diese Absätze wirklich etwas besser machen, konnte bisher keiner schlüssig zeigen.


Da bleibt es bei persönlichen Überzeugungen, dass es jeder richtiger macht als der andere.
Und es kommt unweigerlich zu Streit.


Hier geht es um die Effektivität des Tests.
Wie wirksam sind die Maßnahmen wirklich?


Das wird ja wo anders genauso gemacht:
Erst messen
Dann Verbesserungsmaßnahmen umsetzen
Am Ende nochmal messen um zu sehen, ob es gewirkt hat und besser geworden ist.


Tut man das nicht, kann man nicht sagen, ob und wie gut es geworden ist.


Wenn man etwas erreichen will, muss man doch auch irgendwie bestimmten können, wie gut man unterwegs ist, ob man das Ziel erreicht oder es verfehlt.
Hallo Babak,

nur eine kurze Skizze wie man meiner Ansicht nach weiter vorgehen könnte: Jetzt haben wir die Signifikanzen. Nach meinem Dafürhalten beginnt jetzt die Arbeit am Set. Nämlich herauszufinden, welcher Testaufbau möglichst zuverlässig positive Ergebnisse produziert. Dafür würde ich nach der folgenden Regel vorgehen: "Keep it small and simple." Das bedeutet für mich, möglichst Einzeltests durchzuführen, nicht mehr als zwei Geräte miteinander zu vergleichen, eine Umschaltbox zu benutzen, die Pegel abzugleichen, niemals mehr als eine Variable gleichzeitig zu verändern etc.

Mit dem möglichst einfachen Setting würde ich jetzt versuchen, mutmaßliche intervenierende Variable zu entlarven. Ich würde z.B. bei zwei oder drei unterschiedlichen Pegeln (die zu definieren sind) hören und die Ergebnisse unter Berücksichtigung der statistischen Signifikanz miteinander vergleichen. Dabei würde ich zu den unterschiedlichen Pegeln jeweils eine Testreihe mit mind. 5 Durchgängen an unterschiedlichen Tagen durchführen. Ziel: Maskierungseffekte durch Lautstärke aufdecken. Das Ergebnis mit den meisten Treffern (Signifikanzniveau), wäre für die nächsten Versuche, weitere intervenierende Variable zu entdecken, die Ausgangsbasis. Läge das Signifikanzniveau bspw. bei "mittleren" Pegeln, würde ich die nachfolgenden Versuche bei mittleren Pegeln durchführen.

Dann könnte man z.B. Kurzzeit- und Langzeittests durchführen, hörbares Umschalten vs. unhörbares Umschalten usw.
Freilich ist das alles sehr langwierig, der Aufwand an sich hält sich aber in Grenzen. Dennoch gibt es Unwägbarkeiten: Z.B. ob sich bestimmte Variable so addieren, dass falsch-negative oder falsch-positive Ergebnisse erzeugt werden. Trotzdem kann man meiner Ansicht nach abschätzen, wie welche Variable das Ergebnis in welche Richtung beeinflusst.

Das ist natürlich nur ein Weg. Ich glaube aber, dass er tatsächlich gangbar ist. Ob man sich den "antun" möchte, muss jeder für sich entscheiden.
__________________
Beste Grüße,
Mike

____________________
Hier steht keine Signatur...
Mike ist offline   Mit Zitat antworten
Alt 14.02.2013, 20:02   #33
LowIQ
Gast
 
Beiträge: n/a
Standard

OT
Zufall, die neue Signatur?
End OT
  Mit Zitat antworten
Alt 14.02.2013, 20:06   #34
Mike
Erfahrener Benutzer
 
Benutzerbild von Mike
 
Registriert seit: 19.04.2007
Ort: Hamburg
Alter: 49
Beiträge: 3.186
Mike
Standard

Zitat:
Zitat von LowIQ Beitrag anzeigen
OT
Zufall, die neue Signatur?
End OT
Missverständliches Entfernt.
__________________
Beste Grüße,
Mike

____________________
Hier steht keine Signatur...
Mike ist offline   Mit Zitat antworten
Alt 14.02.2013, 21:00   #35
LowIQ
Gast
 
Beiträge: n/a
Standard

Alles wird gut....
  Mit Zitat antworten
Alt 14.02.2013, 21:32   #36
Babak
gestört verar*** verlogen
 
Benutzerbild von Babak
 
Registriert seit: 31.07.2006
Ort: Wien
Beiträge: 10.546
Babak ist zur Zeit noch ein unbeschriebenes Blatt
Standard

@HOMMEgrün

Du warst leider nicht wieder weg, sondern hast bloß weiter gelästert

An dieser Diskussion ist nichts für irgendjemanden geschäftsschäfigend.



Genau solche Beiträge sind komplett unnütz und tragen null zum Thema bei
__________________
“The problem with today’s world is that everyone believes they have the right to express their opinion AND have others listen to it.

The correct statement of individual rights is that everyone has the right to an opinion, but crucially, that opinion can be roundly ignored and even made fun of, particularly if it is demonstrably nonsense!”


— Brian Cox, musician, physicist, and freethinker
Babak ist offline   Mit Zitat antworten
Alt 14.02.2013, 22:12   #37
Babak
gestört verar*** verlogen
 
Benutzerbild von Babak
 
Registriert seit: 31.07.2006
Ort: Wien
Beiträge: 10.546
Babak ist zur Zeit noch ein unbeschriebenes Blatt
Standard

Hallo Peter,


Zitat:
Zitat von P.Krips Beitrag anzeigen
ich befürchte leider, daß wir uns diesen Thread wirklich sparen können.
Tut mir leid, dass das Thema, zu dem ich einen Thread eröffnet habe, nicht Deine Interessen behandelt.
Solltest Du spezifische Fragen haben, eröffne einfach einen Thread.


Zitat:
Zitat von P.Krips Beitrag anzeigen
Und: Wir sind dabei der Beantwortung der Frage, wie ein valider Test denn nach Babaks Meinung auszusehen hat, keinen Millimeter näher gekommen.
Weil diese Thread ein anderes Thema behandelt:

Und zwar:
Wann handelt es sich um einen Test, der valude Ergebnisse produziert?

Woran erkennt man den?

Nicht an dem, wie er aufgebaut ist, sondern an dem, wie die Ergebnisse aussehen.


Das Erreichte zählt, und nicht das Erzählte reicht.
(frei nach Alfred Dorfer)



Zitat:
Zitat von P.Krips Beitrag anzeigen
Im Grunde genommen wird ja hier nur etwas neu angefangen, was in dieser Form ja nun schon bis zum seit einigen Jahren in mittlerweile einigen einschlägigen Threads behandelt wird.
Seit Jahren wirdim Forum angesprochen, dass es gemacht werden sollte.

Getan wurde es bisher noch nicht.

Es wurde nur darüber geredet.

Zitat:
Zitat von P.Krips Beitrag anzeigen
Warum wird das nicht praktischer angegangen ?
Frage ich mich auch.
Daten sind ja neutral



Zitat:
Zitat von P.Krips Beitrag anzeigen
HEs gibt doch mittlerweile einige veranstaltete Tests. Wenn die analysiert werden mit konreten Vorschlägen/Anweisungen, welche Punkte im Ablauf wie geändert gehören, damit es "passt", haben wir doch eine Chance, der eigentlich interessanten Frage näher zu kommen:

Wie sieht ein "wasserdichter" Test aus ?
Genau

Wenn sie mal analysiert werden.

Um diese Analyse geht es.

Hat man die mal durchgeführt, kann man - wie Du schreibst - etwaige Schwachstellen ausbessern.

Doch erst muss mal analysiert werden.
Das ist bisher noch nicht passiert.

Genau darum geht es hier.


Zitat:
Zitat von P.Krips Beitrag anzeigen
Das und nur das kann doch Ziel des Ganzen sein, ansonsten kann man sich die ganze Prozedur hier sparen.
Genau

Da die Analyse da eine wichtige Basis darstellt, muss mal klar sein, wie man die Richtigkeit eines Testansatzes analysiert.

Genau darum geht es hier.


Zitat:
Zitat von P.Krips Beitrag anzeigen
Selbst wenn wir nach Monaten oder Jahren dann mal abschließend wissen sollten welche Kriterien so ein Test erfüllen muß, dann ist noch lange nicht klar, wie so ein Test praktisch aussehen muß, damit er die Kriterien erfüllt.
Ohne die Kriterien zu kennen, kann man nicht sagen, wie tauglich ein Testansatz ist.

Niemand entwickelt irgendwas ins Blaue hinein, ohne irgendeine Prüfung parat zu haben, mit der er bestimmen kann, ob seine Lösung gut ist oder nicht.

Die bisherigen Tests wurden ohne so eine Prüfung entwickelt.
Ob jetzt einer "besser" ist als ein anderer, war nur Sache von Meinungen, Abschätzungen und Ansichten.


Hier geht es darum, objektiver sagen zu können, welcher Testsansatz wirklich wie viel taugt.


Ist Dir ein Blindflug lieber?
Tests munter drauf los aufbauen, ohne zu wissen, ob die Ergebnisse gut oder nicht gut sind?





Zitat:
Zitat von P.Krips Beitrag anzeigen
Mit an Sicherheit grenzender Wahrscheinlichkeit werden wir dann folgendes Scenario erleben:
Dann kommt jemand auf die Idee, einen Test so anzulegen, wie er meint das hier dann Vorliegende verstanden zu haben, und wird promt hier wieder zerlegt, weil Babak und Co dann doch wieder ein Haar in der Suppe finden.
Das wird dann eine prima Endlosspirale....
Polemisieren kannst Du gerne in einem anderen Thread.
Das will ich hier nicht haben.

Das Szenario wird anders sein:
Jemand baut einen Test auf.
Er führt ihn durch.
Er präsentiert die Daten (Negativkontrollen, Positivkontrollen, Ergebnisse der Vergleiche).

Anhand der Daten kann dan gesagt werden:
  • ob der Test auch falsch-positive Ergebnisse geliefert hat
  • ob der Test auch falsch-negative Ergebnisse geliefert hat
  • wie Aussagekräftig die Ergebnisse sind

Anhand dieser Informationen kann man spezifisch an Verbesserungen des Tests arbeiten.
Für die Reduktion falsch-positiver Ergebnisse braucht es nämlich ganz andere Methoden und Konzeptze als für die Reduktion falsch-negativer Ergebnisse.


Nur so kann man sich Schritt für Schritt auf einen vertrauenswürdigen Test hinarbeiten.


Ohne diesen Daten kann amn nichts sagen, und jeder baut -wie bisher - Methoden nur nach persönlichem Gutdünken und auf reine vermuting hin ein, ohne genau sagen zu können, ob der Test dann wirklich besser wurde.



Zitat:
Zitat von P.Krips Beitrag anzeigen
Babak (du Schlingel... ), gebe doch einfach zu, daß du ein heimliches Goldohr bist und den ganzen Zinnober doch nur als Verwirrungsstrategie veranstaltest, um potentielle Ausrichter von Tests so zu verunsichern, daß sich keiner mehr traut, sowas anzugehen.
Bin weder Holzohr noch Goldohr.

Ja, ich will potenzielle Ausrichter von Tests sehr wohl verunsichern.


Ich will sie so verunsichern, dass sie sich nimmer trauen, irgend eine Aussage über Tests zu machen, ohne solche Daten vorzulegen, auf denen ihre Beurteilung basiert ...



Zitat:
Zitat von P.Krips Beitrag anzeigen
Wenn du die Kompetenz über Testverfahren tatsächlich hast, wie du es hier schon seit Jahren in den Threads versuchst den Eindruck zu erwecken, dann lege endlich ein valides Testverfahren auf den Tisch
Du hast eben die Diskussionen nicht verfolgt.

Kurz gesagt:
Ich persönlich sehe nicht, welchen großen Vorteil das Wissen um mögliche Unterschiede zwischen verschiedenen Verstärkern, CD-Playern etc. bringt.



Zitat:
Zitat von P.Krips Beitrag anzeigen
Was bezweckst du eigentlich ?
Fachliche Unterstützung, damit diese leidigen Diskussionen endlich mal auf belastbare Fakten aufbbauen.
Bisher waren es nur Meinungen und Ansichten, das führte nur zu Streit.

Über Daten und Fakten kann man nimmer so gut streiten.



Deine Vermutungen über meine Motivation gehören auch nciht hierher, denn da machst Du Dir mehr Gedanken über meine Person als über den sachlichen Inhalt des Threads.



Sei froh, dass ich zu einem Thema, dessen Ergebnis mir vollkommen egal ist, fachliche Inputs gebe.

In disem Sinne:

Bleib bitte in diesem Thread bei diesem Thema.
Willst Du andere Themen diskutieren oder diskutiert haben, eröffne bitte einen anderen Thread.

Danke


LG
Babak
__________________
“The problem with today’s world is that everyone believes they have the right to express their opinion AND have others listen to it.

The correct statement of individual rights is that everyone has the right to an opinion, but crucially, that opinion can be roundly ignored and even made fun of, particularly if it is demonstrably nonsense!”


— Brian Cox, musician, physicist, and freethinker
Babak ist offline   Mit Zitat antworten
Alt 15.02.2013, 09:59   #38
Gerd
Gast
 
Beiträge: n/a
Standard

Ich versteh's nicht, da bemüht sich jemand, die Grundlagen für einen validen Test darzulegen, und was passiert. Zwei Leute haben nichts besseres zu tun als zu jammern!

Das Thema heißt "wann ist ein Test aussagekräftig und somit seriös?" (steht doch eindeutig als Überschrift des Threads ganz oben). d. h. es geht hier noch nicht um die Testdurchführung.

Nur weil jahrelang das Pferd von hinten aufgezäumt wurde, muss das nicht in alle Ewigkeit so weitergehen.

Warum seid ihr nicht dankbar dafür, dass jemand wie Babak sich soviel mühe macht und in seiner Freizeit hier sein wissen ausbreitet? Warum eröffnet ihr nicht einen eigenen Thread zu einem anderen Thema, das euch mehr interessiert?

Es gibt nur zwei vernünftige Möglichkeiten: entweder man hat was zum Thema beizutragen, dann ist es jederzeit willkommen, dazu gehört auch nachfragen, wenn man etwas nicht versteht, es ist ja nicht jeder mit wissenschaftlichen Methoden vertraut. die zweite seriöse Möglichkeit ist, einfach nichts zu sagen.

Einer, der noch immer die Hoffnung hat, dass sich hier nach Jahren was zum besseren ändert,

Gerd
  Mit Zitat antworten
Alt 15.02.2013, 12:05   #39
P.Krips
Erfahrener Benutzer
 
Registriert seit: 10.02.2008
Beiträge: 2.173
P.Krips befindet sich auf einem aufstrebenden Ast
Standard

Hallo,
ich werde mich jetzt (zumindest vorläufig) aus dem Thread zurückziehen und abwarten, was dabei herauskommt.

Seit Jahren kreist die Diskussion meist unter Wortführerschaft des TE um dieses Thema, ohne daß dabei was wirklich verwertbares herausgekommen ist.
Daher bin ich nicht sonderlich optimistisch, warum denn nun ausgerechnet hier beim x-ten Neuanlauf etwas Konkretes dabei herauskommen sollte.

@Babak:
Ich greife mal eine Textpassage aus deiner ausführlichen Antwort auf ein früheres Post von mir auf:

" Das Szenario wird anders sein:
Jemand baut einen Test auf.
Er führt ihn durch.
Er präsentiert die Daten (Negativkontrollen, Positivkontrollen, Ergebnisse der Vergleiche).

Anhand der Daten kann dan gesagt werden:
  • ob der Test auch falsch-positive Ergebnisse geliefert hat
  • ob der Test auch falsch-negative Ergebnisse geliefert hat
  • wie Aussagekräftig die Ergebnisse sind

Anhand dieser Informationen kann man spezifisch an Verbesserungen des Tests arbeiten.
Für die Reduktion falsch-positiver Ergebnisse braucht es nämlich ganz andere Methoden und Konzeptze als für die Reduktion falsch-negativer Ergebnisse.


Nur so kann man sich Schritt für Schritt auf einen vertrauenswürdigen Test hinarbeiten.


Ohne diesen Daten kann amn nichts sagen, und jeder baut -wie bisher - Methoden nur nach persönlichem Gutdünken und auf reine vermuting hin ein, ohne genau sagen zu können, ob der Test dann wirklich besser wurde."

Wenn du das so aufziehen willst, bin ich sicher, daß hier nichts dabei herauskommt, möglicherweise auch nichts dabei herauskommen soll.

Immerhin hat es ja in der Vergangenheit einige u.A. von David durchgeführte Vergleichstests gegeben, die von dir und Anderen zerpflückt wurden.
Allerdings kann ich mich nicht erinnern, daß dabei von dir oder Anderen jemals KONKRETE Vorschläge gemacht wurden, in welchen Punkten die Tests wie abgewandelt werden sollten, um die Kriterien dieses Threadtitels zu genügen.

Deiner Meinung nach (aus der zitierten Textpassage) soll man also erst erneut einen Test durchführen, der dann ja - welch Überraschung - kaum die Kriterien erfüllen wird, weil es ja keine "to-do"-Liste gibt, um dann anschließend wieder von Dir und Anderen mit Kritik an der Tauglichkeit "zerpflückt" zu werden.

Das ist es, was ich mit das Pferd von hinten aufzäumen gemeint habe. Auf diesem Weg kommen wir meiner Meinung nach in eine Endlosspirale, die zu nichts führt.

Das Verfahren hat ja schon bei den vergangenen Tests Null Komma Null Erkenntnisgewinn für Testausrichter gebracht, WIE sie die Tests auslegen sollten, damit die Ergebnisse valide werden.

Wieso soll ich oder Jemand nun glauben, daß es bei diesem erneuten Anlauf nun zu anderen Ergebnissen führen sollte als in der Vergangenheit schon erlebt ?

Und, und da wiederhole ich mich, man kann ja in all den bisherigen Threads zum Thema prima nachlesen (auch wenn es mühselig ist), welche Fehler tatsächlich oder vermeintlich gemacht wurde und welche Kriterien nicht hinreichend erfüllt wurden.

Konkrete Vorschläge, was aber genau wie gemacht werden muß, um die Tests nicht mehr kritikwürdig zu machen fand ich aber nahezu keine.

Genau darum geht es aber eigentlich heute:
Wie es nicht funktioniert, liegt mittlerweile in epischer Breite vor, nun muss endlich Konkretes auf den Tisch, wie man einen validen Test durchführen muß, da kann man ja gerne als Beispiel einige der in der Vergangenheit schon gemachten und "durchgefallenen" Tests nehmen und zwar so, daß dabei eine "Gebrauchsanweisung" herauskommt, mit der man so einen Test durchführen kann, der nicht mehr kritikwürdig ist.

Bin wirklich gespannt, ob ich das noch vor einsetzender Altersdemenz oder Umzug zum Friedhof erlebe....

Gruß
Peter Krips

P.S. Ich werde mich nun hier weitestgehend raushalten.
P.Krips ist offline   Mit Zitat antworten
Alt 15.02.2013, 12:43   #40
Reno Barth
Gewerblicher Teilnehmer
 
Registriert seit: 10.11.2008
Beiträge: 6.347
Reno Barth befindet sich auf einem aufstrebenden Ast
Standard

Zitat:
Zitat von P.Krips Beitrag anzeigen
Allerdings kann ich mich nicht erinnern, daß dabei von dir oder Anderen jemals KONKRETE Vorschläge gemacht wurden, in welchen Punkten die Tests wie abgewandelt werden sollten, um die Kriterien dieses Threadtitels zu genügen.
Aber natürlich, jede Menge. Nur zwei Beispiele: Doppelte Verblindung und statistische Auswertung der Resultate. Konkreter gehts nicht mehr.

Die Frage der Kontrollen ist, wie bereits erwähnt, schwieriger...

lg
reno
Reno Barth ist offline   Mit Zitat antworten
Alt 15.02.2013, 13:22   #41
Jakob
Erfahrener Benutzer
 
Registriert seit: 17.08.2010
Beiträge: 816
Jakob befindet sich auf einem aufstrebenden Ast
Standard

Zusätzlich gab es früher oft den Hinweis

-) Positiv- und Negativkontrollen einzusetzen (mit konkreten Vorschlägen zur Realisation)
-) Training der jeweiligen Teilnehmer unter Testbedingungen durchzuführen
-) Konkretisierung der Testfragestellung

Gruß
__________________
Gewerblicher Teilnehmer. Entwicklung, Herstellung und Vertrieb von Audiotechnik. (u.a.)
Jakob ist offline   Mit Zitat antworten
Alt 15.02.2013, 13:23   #42
Phototipps.com
Gast
 
Beiträge: n/a
Standard

Zitat:
Zitat von Reno Barth Beitrag anzeigen
Aber natürlich, jede Menge. Nur zwei Beispiele: Doppelte Verblindung und statistische Auswertung der Resultate. Konkreter gehts nicht mehr.
Unter "Doppelte Verblindung" kann ich mir nun gar nichts vorstellen und auch die Tante Google konnte mir darüber nicht Auskunft geben. Kannst Du mir da auf die Sprünge helfen?

Und statistische Auswertung: Was genau sollte die beinhalten?

Herby
  Mit Zitat antworten
Alt 15.02.2013, 13:41   #43
Reno Barth
Gewerblicher Teilnehmer
 
Registriert seit: 10.11.2008
Beiträge: 6.347
Reno Barth befindet sich auf einem aufstrebenden Ast
Standard

na geh, Tante Google weiß alles:

http://pregonero.de/?p=1074

oder hier

http://flexikon.doccheck.com/de/Rand...llierte_Studie

doppelt verblindet heißt, dass auch der Versuchsleiter nicht weiß, was gerade spielt.

zur Statistik später, muss jetzt weg und das dauert etwas länger...

lg
reno
Reno Barth ist offline   Mit Zitat antworten
Alt 15.02.2013, 15:54   #44
LowIQ
Gast
 
Beiträge: n/a
Standard

Zitat:
Zitat von Phototipps.com Beitrag anzeigen
Unter "Doppelte Verblindung" kann ich mir nun gar nichts vorstellen und auch die Tante Google konnte mir darüber nicht Auskunft geben. Kannst Du mir da auf die Sprünge helfen?

Und statistische Auswertung: Was genau sollte die beinhalten?

Herby
OT

Nach all Deinen posts im anderen thread hats mir jetzt grad die Socken ausgezogen.....

End OT
  Mit Zitat antworten
Alt 15.02.2013, 19:38   #45
Gerd
Gast
 
Beiträge: n/a
Standard

Zitat:
Zitat von Phototipps.com Beitrag anzeigen
Unter "Doppelte Verblindung" kann ich mir nun gar nichts vorstellen und auch die Tante Google konnte mir darüber nicht Auskunft geben. Kannst Du mir da auf die Sprünge helfen?

Und statistische Auswertung: Was genau sollte die beinhalten?

Herby

Was ist am Googeln so schwer, vor allem wenn man aus der EDV-Branche kommt?

"Doppelte Verblindung" eingeben und das ernten:
https://www.google.com/search?client...UTF-8&oe=UTF-8

Gruss,
Gerd
  Mit Zitat antworten
Antwort

Lesezeichen

Stichworte
aussagekraft, blindtest, ergebnis, falsch, richtig


Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)
 
Themen-Optionen
Ansicht

Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen erlaubt, auf Beiträge zu antworten.
Es ist Ihnen nicht erlaubt, Anhänge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.
Gehe zu



Alle Zeitangaben in WEZ +2. Es ist jetzt 09:49 Uhr.


Powered by vBulletin® Version 3.7.1 (Deutsch)
Copyright ©2000 - 2017, Jelsoft Enterprises Ltd.
Powered by vBCMS® 1.2.2 ©2002 - 2017 vbdesigns.de