Erbitte Hilfe

Fragen, die sich auf kein spezielles Verfahren beziehen.

Erbitte Hilfe

Beitragvon herbst67 » Fr 7. Okt 2016, 16:07

Liebe Statistiker,
ich habe in einem Vortrag eine Selbstbewusstseinsbewertung von Personen durchgeführt.
Sinn war aufzuzeigen das die Wahrnehmungen der jeweiligen Person bei allen anderen nicht identisch sondern je nach Beziehung zur zu beurteilenden Person, bzw. nach anderen Filtern stattfindet.
Es gab pro Person drei Antwortmöglichkeiten – stark mittel schwach
18 Personen haben abgestimmt über jede Person einschließlich der eigenen. (Wahrung der Anonymität)
Nun habe ich eine Verteilung der Antworten erhalten die, wie erwartet, sehr unterschiedlich ausfallen.
0-10-7 oder 5-10-2 um Beispiele zu nennen.
Ich würde gerne eine Auswertung anfertigen die aufzeigt, wie unterschiedlich die Antworten ausgefallen sind, ohne die einzelnen Personen zu benennen.
Eben nicht so etwas wie Nr. 14 hat... sondern die Abweichung der Einschätzung lag bei...
Nun ist meine Statistikvorlesung schon 20 Jahre her und ich habe alles vergessen – da nie wieder genutzt.
Kann mir jemand helfen, bitte? Sonst muss ich meinen Sohn fragen – der studiert – aber der macht sich dann immer so lustig über seine „unwissenschaftliche“ Mutter ;-)
Danke im voraus, Herbst
herbst67
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Fr 7. Okt 2016, 15:51
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post

Re: Erbitte Hilfe

Beitragvon PonderStibbons » Fr 7. Okt 2016, 21:36

Liebe Statistiker,

Die gibt es hier allerdings nicht.
Ich würde gerne eine Auswertung anfertigen die aufzeigt, wie unterschiedlich die Antworten ausgefallen sind, ohne die einzelnen Personen zu benennen.
Eben nicht so etwas wie Nr. 14 hat... sondern die Abweichung der Einschätzung lag bei...

Ich muss gestehen, dass mir noch nicht so recht klar ist, was Du anstrebst.

Mit freundlichen Grüßen

Ponderstibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11368
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2504 mal in 2488 Posts

folgende User möchten sich bei PonderStibbons bedanken:
herbst67

Re: Erbitte Hilfe

Beitragvon herbst67 » So 9. Okt 2016, 09:50

Liebe/r Ponderstibbons,
ich würde gerne eine Auswertung anfertigen.
Ich habe bei 18 Menschen über je drei Antwortkategorien abgefragt wie hoch andere ihr Selbstbewusstsein einschätzen.
Nun habe ich eine Verteilung pro Person von schwach 2 - mittel 6 - stark 10 erhalten.
Mir geht es darum aufzuzeigen das eine Fremdbewertung abhängig von vielen Faktoren, Person, Stimmung, etc. ist und eben keine objektive Beobachtung die man bedingungslos annehmen kann. Dazu würde ich gerne eine allgmeinere mathematische Aussage treffen können.
Ist es nun klarer?
Mit freundlichen Grüßen zurück,
Herbst67
herbst67
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Fr 7. Okt 2016, 15:51
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post

Re: Erbitte Hilfe

Beitragvon PonderStibbons » Mo 10. Okt 2016, 11:11

Da haben wir es demnach mit 18 Beurteilern zu tun,
die 18 Objekte auf einer ordinalen Skala bewerten.
Da kenne ich mich leider nicht überragend aus.

Eine Möglichkeit wäre, die Korrelationen zwischen
den Beobachtern zu ermitteln ("Beobachter A bewertet
18 Objekte, Beobachter B bewertet dieselben 18 Objekte,
zwischen den Bewertungen durch A und B besteht eine
Korrelation Spearman rho = 0,12"). Die 153 Korrelationen
kann man dann präsentieren (z.B. als Boxplot, der zeigt,
wie hoch die Korrelation im Mittel ist und wie stark sie
zwischen Beurteilerpärchen variieren kann). Alternativ
zur Korrelation käme Cohen's kappa in Frage, das
darstellt, wie stark jeweils 2 Rater bei den 18 Bewertungen
übereinstimmen (bzw. gewichtetes Cohen's kappa, da der
Unterschied zwischen "schwach" und "stark" stärker ins
Gewicht fallen sollte als der zwischen "schwach" und mittel).

Wie man die Rechnung von nur je 1 Rater-Pärchen auf alle
erweitern kann, weiß ich allerdings nicht sicher. Ein Maß, um
die Übereinstimmung von n Beobachtern hinsichtlich k Objekten
abzubilden, ist vermutlich Krippendorfs alpha, mit dem habe
ich aber bisher nicht gearbeitet.

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11368
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 51
Danke bekommen: 2504 mal in 2488 Posts

folgende User möchten sich bei PonderStibbons bedanken:
herbst67

Re: Erbitte Hilfe

Beitragvon Student88 » Mo 10. Okt 2016, 20:49

Vielleicht ist das eine Möglichkeit:

Cohens Kappa und Fleiss' Kappa behandeln die Urteilsübereinstimmung von mehreren Urteilern (engl.: rater).
Cohens Kappa gilt für zwei Beurteiler, Fleiss' Kappa für mehr als zwei Urteiler.

https://de.wikipedia.org/wiki/Cohens_Kappa
http://www.reiter1.com/Glossar/Cohens-K ... eiss_Kappa

Fleiss' Kappa wird beispielsweise zum Evaluieren von Card Sortings verwendet, wenn es das Ziel ist, dass alle "rater" zum gleichen Ergebniss kommen sollen. Daran lässt sich festmachen, wie gut die rater tatsächlich in ihren Bewertungen übereinstimmen.
Student88
Beobachter
Beobachter
 
Beiträge: 10
Registriert: Do 6. Okt 2016, 09:55
Danke gegeben: 2
Danke bekommen: 1 mal in 1 Post

folgende User möchten sich bei Student88 bedanken:
herbst67

Re: Erbitte Hilfe

Beitragvon herbst67 » Mo 7. Nov 2016, 09:03

Hallo PonderStibbons und Student88, es ist geschafft - Vielen lieben Dank!
Cohens Kappa war ein wichtiger Teil von dem was ich gesucht habe.
Zustätzlich habe ich noch probiert die Standardabweichungen von jedem Bewerter zu berechnen und davon dann nochmal den Mittelwert.
Auch das ist hilfreich.
Vielen Dank für Eure Hilfe!!!
herbst67
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Fr 7. Okt 2016, 15:51
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post


Zurück zu Allgemeine Fragen

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 11 Gäste