No.06817 Re: 評価者間の一致性 【青木繁伸】 2008/06/15(Sun) 19:16
> .各領域について,すなわち30(人)*20(領域)=600検査結果について
という のは具体的にどうやるつもりか分かりませんが,普通は,20領域ごとに30人のデータからκ統計量を求めて検定するというようなことになるでしょう。検定 の多重性も考えなければいけないかも知れないが,どの項目がどのようなκ統計量になったかという記述的な分析なら,検定の多重性は気にしなくても良いので はないかな?(ただし,そのことは前もって断るとして)
No.06826 Re: 評価者間の一致性 【thunder】 2008/06/15(Sun) 23:28
御回答ありがとうございます。大変参考になりました。
領域ごとに計算してみます。
ところで,領域ごとに求められたkappa統計量を用いて,ANOVAないしKruskal-Wallisの検定を行うことは可能なのでしょうか? ( 比尺度ないし順序尺度とみなして検定を行うことは果たして正しいのでしょうか? )
大変初歩的なことと思いますが,これについてもご教示頂けたら幸いです。
No.06827 Re: 評価者間の一致性 【青木繁伸】 2008/06/16(Mon) 15:41
> 領域ごとに求められたkappa統計量を用いて,ANOVAないしKruskal-Wallisの検定を行うことは可能なのでしょうか?
カッパ統計量を測定値のように見なして,平均値や代表値の差の検定を行うということですか。
そういうことは,しない方がよいと思います。
No.06828 Re: 評価者間の一致性 【thunder】 2008/06/16(Mon) 17:12
御回答ありがとうございました。大変参考になりました。
● 「統計学関連なんでもあり」の過去ログ--- 041 の目次へジャンプ
● 「統計学関連なんでもあり」の目次へジャンプ
● 直前のページへ戻る