Informasi

Menggunakan median untuk data non parametrik (Likert), ketika memberi Anda tempat desimal

Menggunakan median untuk data non parametrik (Likert), ketika memberi Anda tempat desimal



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Kolega saya dan saya bekerja dengan data Likert non-parametrik.

Kami telah mengambil median, tetapi baru menyadari bahwa kami masih mendapatkan nilai katakanlah 2,5 atau 1,5. Pembenaran kami untuk menggunakan median di atas rata-rata adalah bahwa nilai-nilai yang terletak di antara titik data Likert kami tidak memiliki makna yang kuat.

Kami tidak yakin apakah kami harus menjalankan analisis kami lagi, selalu mengambil nilai minimum atau… ?

Terima kasih.


Anda menggunakan pembenaran yang salah untuk menggunakan median. Satu-satunya alasan Anda bahkan dapat mempertimbangkan untuk menggunakan median atau mean dengan data Likert adalah karena ada adalah makna nilai antara item Likert. Jika Anda memiliki "Setuju" dan "Sangat Setuju" pasti ada kemungkinan beberapa nilai di mana seseorang lebih setuju daripada setuju tetapi kurang setuju daripada sangat setuju.

Namun, Anda kehilangan banyak informasi saat Anda menghitung median item seperti Likert, dan bisa berbahaya untuk melakukannya saat bentuk distribusi respons bervariasi. Mari kita pertimbangkan kasus di mana Anda memiliki 5 level. Kedua vektor hitungan ini memberi Anda median '3' yang sama:

A = [5 5 50 20 20]

B = [20 20 50 5 5]

tetapi distribusinya sangat berbeda dan median tidak terlalu informatif tentang perbedaan itu.

Anda dapat mempertimbangkan untuk menggunakan "median interpolasi" yang memperlakukan item Likert sebagai indikasi interval antara item yang berdekatan, misalnya "3" benar-benar berarti "di suatu tempat pada interval [2.5 3.5]."

Untuk kasus A dan B di atas, median yang diinterpolasi adalah:

MintA = 3.3

MintB = 2.7


Jawaban Bryan baik-baik saja, saya hanya ingin menambahkan beberapa dasar di median. Pandangan sekilas pada halaman wiki akan langsung memberi tahu Anda bahwa median bilangan bulat tidak harus bilangan bulat ketika ada jumlah pengamatan yang genap. Pertimbangkan kumpulan data [0 1] - median dan meannya sama, yaitu 0,5. Jumlah bilangan bulat yang tidak merata akan selalu menghasilkan median bilangan bulat.

Jika Anda merasa tidak nyaman menyebutkan desimal dari skala Likert, pertimbangkan untuk membulatkan hasilnya ke bilangan bulat terdekat.


Isi

Perhatikan data (1, 1, 2, 2, 4, 6, 9). Ini memiliki nilai median 2. Simpangan mutlak sekitar 2 adalah (1, 1, 0, 0, 2, 4, 7) yang pada gilirannya memiliki nilai median 1 (karena simpangan mutlak yang diurutkan adalah (0, 0, 1, 1, 2, 4, 7)). Jadi simpangan mutlak median untuk data ini adalah 1.

Deviasi absolut median adalah ukuran penyebaran statistik. Selain itu, MAD adalah statistik yang kuat, lebih tahan terhadap outlier dalam kumpulan data daripada standar deviasi. Dalam standar deviasi, jarak dari rata-rata dikuadratkan, sehingga deviasi yang besar dibobot lebih berat, dan dengan demikian outlier dapat sangat mempengaruhinya. Dalam MAD, penyimpangan dari sejumlah kecil outlier tidak relevan.

Karena MAD adalah penduga skala yang lebih kuat daripada varians sampel atau standar deviasi, MAD bekerja lebih baik dengan distribusi tanpa mean atau varians, seperti distribusi Cauchy.

MAD dapat digunakan mirip dengan bagaimana seseorang akan menggunakan deviasi untuk rata-rata. Untuk menggunakan MAD sebagai penduga yang konsisten untuk pendugaan simpangan baku , diperlukan

Oleh karena itu, kita harus memilikinya

Cara lain untuk membangun hubungan adalah dengan mencatat bahwa MAD sama dengan median distribusi setengah normal:

Formulir ini digunakan dalam, misalnya, kemungkinan kesalahan.

Sama halnya dengan bagaimana median digeneralisasi ke median geometrik dalam data multivariat, MAD geometris dapat dibangun yang menggeneralisasi MAD. Diberikan set data berpasangan 2 dimensi (X1,kamu1), (X2,kamu2). (Xn,kamun) dan median geometrik yang dihitung dengan tepat ( X

Ini memberikan hasil yang identik sebagai MAD univariat dalam 1 dimensi dan meluas dengan mudah ke dimensi yang lebih tinggi. Dalam kasus nilai kompleks (x+ sayakamu), hubungan MAD dengan standar deviasi tidak berubah untuk data yang terdistribusi normal.

Populasi MAD didefinisikan secara analog dengan sampel MAD, tetapi didasarkan pada distribusi lengkap dan bukan pada sampel. Untuk distribusi simetris dengan rata-rata nol, populasi MAD adalah persentil ke-75 dari distribusi.

Berbeda dengan varians, yang mungkin tak terhingga atau tidak terdefinisi, populasi MAD selalu merupakan bilangan berhingga. Misalnya, distribusi Cauchy standar memiliki varians yang tidak terdefinisi, tetapi MAD-nya adalah 1.

Penyebutan konsep MAD yang paling awal diketahui terjadi pada tahun 1816, dalam sebuah makalah oleh Carl Friedrich Gauss tentang penentuan keakuratan pengamatan numerik. [4] [5]


Rata-rata biasanya merupakan ukuran terbaik dari tendensi sentral untuk digunakan ketika distribusi data Anda kontinu dan simetris, seperti ketika data Anda terdistribusi normal. Namun, itu semua tergantung pada apa yang Anda coba tunjukkan dari data Anda.

Modus adalah ukuran tendensi sentral yang paling sedikit digunakan dan hanya dapat digunakan ketika berhadapan dengan data nominal. Untuk alasan ini, modus akan menjadi ukuran terbaik dari tendensi sentral (karena merupakan satu-satunya yang tepat untuk digunakan) ketika berhadapan dengan data nominal. Rata-rata dan/atau median biasanya lebih disukai ketika berhadapan dengan semua tipe data lain, tetapi ini tidak berarti tidak pernah digunakan dengan tipe data ini.


Tes parametrik dan Non-parametrik untuk membandingkan dua atau lebih kelompok

Statistik: Tes parametrik dan non-parametrik

Memilih Tes

Dalam hal memilih uji statistik, pertanyaan yang paling penting adalah "apa hipotesis penelitian utama?" Dalam beberapa kasus tidak ada hipotesis penyidik ​​hanya ingin "melihat apa yang ada". Misalnya, dalam studi prevalensi tidak ada hipotesis untuk diuji, dan ukuran penelitian ditentukan oleh seberapa akurat peneliti ingin menentukan prevalensi. Jika tidak ada hipotesis, maka tidak ada uji statistik. Penting untuk memutuskan sebuah prioritas hipotesis mana yang konfirmatori (yaitu, menguji beberapa hubungan yang diandaikan), dan mana yang bersifat eksploratif (disarankan oleh data). Tidak ada penelitian tunggal yang dapat mendukung serangkaian hipotesis. Rencana yang masuk akal adalah sangat membatasi jumlah hipotesis konfirmasi. Meskipun valid untuk menggunakan uji statistik pada hipotesis yang disarankan oleh data, nilai P harus digunakan hanya sebagai pedoman, dan hasilnya diperlakukan sebagai tentatif sampai dikonfirmasi oleh penelitian selanjutnya. Panduan yang berguna adalah dengan menggunakan koreksi Bonferroni, yang menyatakan secara sederhana bahwa jika seseorang sedang menguji n hipotesis independen, seseorang harus menggunakan tingkat signifikansi 0,05/n. Jadi jika ada dua hipotesis independen, hasilnya akan dinyatakan signifikan hanya jika P<0,025. Perhatikan bahwa, karena tes jarang independen, ini adalah prosedur yang sangat konservatif – yaitu prosedur yang tidak mungkin menolak hipotesis nol. Penyelidik kemudian harus bertanya "apakah datanya independen?" Ini bisa sulit untuk diputuskan tetapi sebagai aturan praktis hasil pada individu yang sama, atau dari individu yang cocok, tidak independen. Jadi hasil dari percobaan silang, atau dari studi kasus-kontrol di mana kontrol dicocokkan dengan kasus berdasarkan usia, jenis kelamin dan kelas sosial, tidak independen.

  • Analisis harus mencerminkan desain, dan desain yang cocok harus diikuti oleh analisis yang cocok.
  • Hasil yang diukur dari waktu ke waktu memerlukan perawatan khusus. Salah satu kesalahan paling umum dalam analisis statistik adalah memperlakukan variabel yang berkorelasi seolah-olah
    Mandiri. Sebagai contoh, misalkan kita sedang melihat pengobatan borok kaki, di mana beberapa orang memiliki borok di setiap kaki. Kami mungkin memiliki 20 mata pelajaran dengan
    30 bisul tetapi jumlah informasi independen adalah 20 karena keadaan bisul pada setiap kaki untuk satu orang dapat dipengaruhi oleh keadaan
    kesehatan orang tersebut dan analisis yang menganggap borok sebagai pengamatan independen akan salah. Untuk analisis yang benar dari campuran berpasangan dan tidak berpasangan
    data berkonsultasi dengan ahli statistik.

Pertanyaan berikutnya adalah "jenis data apa yang diukur?" Tes yang digunakan harus ditentukan oleh data. Pilihan tes untuk data yang cocok atau berpasangan dijelaskan pada Tabel 1 dan untuk data independen pada Tabel 2.

Tabel 1 Pilihan uji statistik dari pengamatan berpasangan atau berpasangan

Akan sangat membantu untuk menentukan variabel input dan variabel hasil. Misalnya, dalam uji klinis variabel input adalah jenis pengobatan - variabel nominal - dan hasilnya mungkin beberapa ukuran klinis mungkin terdistribusi secara normal. Tes yang diperlukan adalah T-tes (Tabel 2). Namun, jika variabel inputnya kontinu, katakanlah skor klinis, dan hasilnya nominal, katakan sembuh atau tidak sembuh, regresi logistik adalah analisis yang diperlukan. A T-tes dalam kasus ini dapat membantu tetapi tidak memberikan apa yang kita butuhkan, yaitu probabilitas kesembuhan untuk nilai skor klinis tertentu. Sebagai contoh lain, misalkan kita memiliki studi cross-sectional di mana kita menanyakan sampel acak orang apakah mereka pikir dokter umum mereka melakukan pekerjaan dengan baik, pada skala lima poin, dan kami ingin memastikan apakah wanita memiliki pendapat yang lebih tinggi. dokter umum daripada yang dimiliki pria. Variabel inputnya adalah jenis kelamin, yaitu nominal. Variabel hasil adalah skala ordinal lima poin. Pendapat setiap orang tidak tergantung pada orang lain, jadi kami memiliki data independen. Dari Tabel 2 kita harus menggunakan uji 2 untuk tren, atau uji Mann-Whitney U dengan koreksi untuk dasi (NB, dasi terjadi di mana dua atau lebih nilai adalah sama, jadi tidak ada peningkatan urutan peringkat yang ketat – di mana ini terjadi, seseorang dapat rata-rata peringkat untuk nilai terikat). Namun, perhatikan, jika beberapa orang berbagi dokter umum dan yang lainnya tidak, maka data tersebut tidak independen dan diperlukan analisis yang lebih canggih. Perhatikan bahwa tabel ini harus dianggap sebagai panduan saja, dan setiap kasus harus dipertimbangkan berdasarkan manfaatnya.

Tabel 2 Pilihan uji statistik untuk observasi independen

a Jika data disensor. b Uji Kruskal-Wallis digunakan untuk membandingkan variabel ordinal atau non-Normal untuk lebih dari dua kelompok, dan merupakan generalisasi dari uji Mann-Whitney U. c Analisis varians adalah teknik umum, dan satu versi (analisis varians satu arah) digunakan untuk membandingkan variabel terdistribusi normal untuk lebih dari dua kelompok, dan merupakan ekuivalen parametrik dari Kruskal-Wallistest. d Jika variabel hasil adalah variabel dependen, maka asalkan residual (perbedaan antara nilai yang diamati dan respons yang diprediksi dari regresi) masuk akal Terdistribusi secara normal, maka distribusi variabel independen tidak penting. e Ada sejumlah teknik yang lebih maju, seperti regresi Poisson, untuk menangani situasi ini. Namun, mereka memerlukan asumsi tertentu dan seringkali lebih mudah untuk mendikotomikan variabel hasil atau memperlakukannya sebagai kontinu.

Tes parametrik adalah tes yang membuat asumsi tentang parameter distribusi populasi dari mana sampel diambil. Hal ini sering menjadi asumsi bahwa data populasi berdistribusi normal. Tes non-parametrik adalah "bebas distribusi" dan, dengan demikian, dapat digunakan untuk variabel non-Normal. Tabel 3 menunjukkan padanan non-parametrik dari sejumlah tes parametrik.

Tabel 3 Uji Parametrik dan Non-parametrik untuk membandingkan dua atau lebih kelompok

Tes non-parametrik valid untuk data yang tidak terdistribusi secara normal dan data yang terdistribusi secara normal, jadi mengapa tidak menggunakannya setiap saat?

Tampaknya bijaksana untuk menggunakan tes non-parametrik dalam semua kasus, yang akan menghemat satu kerumitan pengujian untuk Normalitas. Namun, tes parametrik lebih disukai karena alasan berikut:

1. Kami jarang tertarik pada uji signifikansi saja, kami ingin mengatakan sesuatu tentang populasi dari mana sampel berasal, dan ini paling baik dilakukan dengan
estimasi parameter dan interval kepercayaan.

2. Sulit untuk melakukan pemodelan fleksibel dengan tes non-parametrik, misalnya memungkinkan faktor perancu menggunakan regresi berganda.

3. Tes parametrik biasanya memiliki kekuatan statistik lebih dari padanan non-parametriknya. Dengan kata lain, seseorang lebih mungkin untuk mendeteksi perbedaan yang signifikan ketika
mereka benar-benar ada.

Apakah tes non-parametrik membandingkan median?

Ini adalah kepercayaan umum bahwa tes Mann-Whitney U sebenarnya tes untuk perbedaan median. Namun, dua kelompok dapat memiliki median yang sama namun memiliki uji Mann-Whitney U yang signifikan. Perhatikan data berikut untuk dua kelompok, masing-masing dengan 100 pengamatan. Grup 1: 98 (0), 1, 2 Grup 2: 51 (0), 1, 48 (2). Median dalam kedua kasus adalah 0, tetapi dari uji Mann-Whitney P<0.0001. Hanya jika kita siap untuk membuat asumsi tambahan bahwa perbedaan dalam dua kelompok hanyalah pergeseran lokasi (yaitu, distribusi data dalam satu kelompok hanya digeser oleh jumlah yang tetap dari yang lain) dapat kita katakan bahwa uji tersebut adalah uji beda median. Namun, jika kelompok-kelompok tersebut memiliki distribusi yang sama, maka pergeseran lokasi akan memindahkan median dan rata-rata dengan jumlah yang sama sehingga perbedaan median sama dengan perbedaan rata-rata. Jadi uji Mann-Whitney U juga merupakan uji untuk perbedaan rata-rata. Bagaimana tes Mann-Whitney U terkait dengan T-tes? Jika seseorang memasukkan peringkat data daripada data itu sendiri ke dalam dua sampel T-uji program, nilai P yang diperoleh akan sangat dekat dengan yang dihasilkan oleh uji U Mann-Whitney.


Ukuran Lokasi dan Dispersi dan penggunaannya yang sesuai

Statistik: Ukuran lokasi dan penyebaran

  • Berarti
  • median
  • Mode
  • Jangkauan
  • Jarak interkuartil
  • Standar deviasi

Ukuran Lokasi

Ukuran lokasi menggambarkan tendensi sentral dari data. Mereka termasuk mean, median dan modus.

Rata-rata atau Rata-rata

Rata-rata (aritmatika), atau rata-rata, dari n pengamatan (diucapkan "x bar") hanyalah jumlah pengamatan dibagi dengan jumlah pengamatan sebagai berikut:

Dalam persamaan ini, xi mewakili nilai sampel individu dan xi jumlah mereka. Huruf Yunani 'Σ' (sigma) adalah ibu kota Yunani 'S' dan singkatan dari 'jumlah'. Perhitungan mereka dijelaskan dalam contoh 1, di bawah ini.

Median didefinisikan sebagai titik tengah dari data yang diurutkan. Diperkirakan dengan terlebih dahulu mengurutkan data dari terkecil ke terbesar, dan kemudian menghitung ke atas untuk setengah pengamatan. Taksiran median adalah pengamatan di pusat urutan dalam kasus jumlah pengamatan ganjil, atau rata-rata sederhana dari dua pengamatan tengah jika jumlah pengamatan genap. Lebih khusus lagi, jika jumlah pengamatan ganjil, itu adalah pengamatan ke [(n+1)/2], dan jika jumlah pengamatan genap, itu adalah rata-rata dari [n/2] dan pengamatan ke [(n/2)+1].

Contoh 1 Perhitungan mean dan median

Pertimbangkan 5 berat lahir berikut, dalam kilogram, dicatat ke 1 tempat desimal:

Mean didefinisikan sebagai jumlah pengamatan dibagi dengan jumlah pengamatan. Jadi rata-rata = (1.2+1.3+…+2.1)/5 = 1.50kg. Biasanya mengutip 1 tempat desimal lebih banyak untuk mean daripada data yang direkam.

Ada 5 pengamatan yang merupakan bilangan ganjil, jadi nilai mediannya adalah pengamatan (5+1)/2 = pengamatan ke-3, yaitu 1,4kg. Ingatlah bahwa jika jumlah pengamatan genap, maka median didefinisikan sebagai rata-rata ke-[n/2] dan [(n/2)+1]. Jadi, jika kita mengamati nilai tambahan 3,5kg dalam sampel berat lahir, median akan menjadi rata-rata pengamatan ke-3 dan ke-4 dalam peringkat, yaitu rata-rata 1,4 dan 1,5, yaitu 1,45kg.

Keuntungan dan kerugian dari mean dan median

Keuntungan utama dari mean adalah bahwa ia menggunakan semua nilai data, dan, dalam arti statistik, efisien.

Kerugian utama dari mean adalah rentan terhadap outlier. Pencilan adalah pengamatan tunggal yang, jika dikeluarkan dari perhitungan, memiliki pengaruh nyata pada hasil. Sebagai contoh, jika kita memasukkan '21' dan bukan '2.1' dalam perhitungan mean pada Contoh 1, kita akan menemukan mean berubah dari 1,50kg menjadi 7,98kg. Namun, tidak selalu berarti bahwa outlier harus dikeluarkan dari ringkasan data akhir, atau bahwa mereka selalu dihasilkan dari pengukuran yang salah.

Median memiliki keuntungan karena tidak terpengaruh oleh outlier, jadi misalnya median dalam contoh tidak akan terpengaruh dengan mengganti '2.1' dengan '21'. Namun, ini tidak efisien secara statistik, karena tidak menggunakan semua nilai data individual.

Ukuran lokasi ketiga adalah modus. Ini adalah nilai yang paling sering muncul, atau, jika data dikelompokkan, pengelompokan dengan frekuensi tertinggi. Ini tidak banyak digunakan dalam analisis statistik, karena nilainya tergantung pada keakuratan data yang diukur meskipun mungkin berguna untuk data kategorikal untuk menggambarkan kategori yang paling sering. Ungkapan distribusi 'bimodal' digunakan untuk menggambarkan distribusi dengan dua puncak di dalamnya. Hal ini dapat disebabkan oleh percampuran populasi. Misalnya, tinggi badan mungkin tampak bimodal jika seseorang memiliki pria dan wanita dalam populasi. Beberapa penyakit dapat meningkatkan ukuran biokimia, jadi dalam populasi yang berisi orang sehat dan sakit, orang mungkin mengharapkan distribusi bimodal. Namun, beberapa penyakit ditentukan oleh ukurannya (misalnya obesitas atau tekanan darah tinggi) dan dalam hal ini distribusinya biasanya unimodal.

Ukuran Dispersi atau Variabilitas

Ukuran dispersi menggambarkan penyebaran data. Mereka termasuk jangkauan, jangkauan interkuartil, standar deviasi dan varians.

Rentang dan Rentang Interkuartil

Rentang diberikan sebagai pengamatan terkecil dan terbesar. Ini adalah ukuran variabilitas yang paling sederhana. Catatan dalam statistik (tidak seperti fisika) rentang diberikan oleh dua angka, bukan perbedaan antara yang terkecil dan terbesar. Untuk beberapa data sangat berguna, karena seseorang ingin mengetahui angka-angka ini, misalnya mengetahui dalam sampel usia peserta termuda dan tertua. Jika terdapat outlier, hal itu dapat memberikan kesan yang menyimpang dari variabilitas data, karena hanya dua pengamatan yang dimasukkan dalam estimasi.

Kuartil dan Jangkauan Antarkuartil

Kuartil, yaitu kuartil bawah, median dan kuartil atas, membagi data menjadi empat bagian yang sama yaitu akan terdapat jumlah pengamatan yang kurang lebih sama pada keempat bagian tersebut (dan sama persis jika ukuran sampel habis dibagi empat dan ukuran semuanya berbeda). Perhatikan bahwa sebenarnya hanya ada tiga kuartil dan ini adalah titik bukan proporsi. Ini adalah penyalahgunaan bahasa yang umum untuk merujuk pada 'di kuartil teratas'. Alih-alih, seseorang harus merujuk pada 'di kuartil teratas atau' di atas kuartil atas'. Namun, arti dari pernyataan pertama jelas sehingga perbedaannya benar-benar hanya berguna untuk menampilkan pengetahuan statistik yang unggul! Kuartil dihitung dengan cara yang mirip dengan median, pertama-tama susun data dalam urutan ukuran dan tentukan median, menggunakan metode yang dijelaskan di atas. Sekarang bagi data menjadi dua (bagian bawah dan bagian atas, berdasarkan median). Kuartil pertama adalah pengamatan tengah bagian bawah, dan kuartil ketiga adalah pengamatan tengah bagian atas. Proses ini ditunjukkan dalam Contoh 2, di bawah ini.

Rentang interkuartil adalah ukuran variabilitas yang berguna dan diberikan oleh kuartil bawah dan atas. Rentang interkuartil tidak rentan terhadap outlier dan, apa pun distribusi datanya, kita tahu bahwa 50% pengamatan berada dalam rentang interkuartil.

Contoh 2 Perhitungan kuartil

Misalkan kita memiliki 18 bobot lahir yang disusun dalam urutan yang meningkat.

1.51, 1.53. 1.55, 1.55, 1.79. 1.81, 2.10, 2.15, 2.18,

2.22, 2.35, 2.37, 2.40, 2.40, 2.45, 2.78. 2.81, 2.85.

Median adalah rata-rata pengamatan ke-9 dan ke-10 (2.18+2.22)/2 = 2.20 kg. Paruh pertama data memiliki 9 pengamatan sehingga kuartil pertama adalah pengamatan ke-5 yaitu 1,79kg. Demikian pula kuartil ke-3 akan menjadi pengamatan ke-5 di bagian atas data, atau pengamatan ke-14, yaitu 2,40 kg. Oleh karena itu rentang interkuartil adalah 1,79 hingga 2,40 kg.

Standar Deviasi dan Varians

Simpangan baku sampel (S) dihitung sebagai berikut:

Ekspresi (xSaya - ) 2 diartikan sebagai: dari setiap pengamatan individu (xSaya) kurangi mean (), lalu kuadratkan selisihnya. Selanjutnya tambahkan masing-masing n perbedaan kuadrat. Jumlah ini kemudian dibagi dengan (n-1). Ekspresi ini dikenal sebagai varians sampel (S 2). Varians dinyatakan dalam satuan kuadrat, jadi kita ambil akar kuadrat untuk kembali ke satuan semula, yang memberikan simpangan baku, S. Meneliti ekspresi ini dapat dilihat bahwa jika semua pengamatan adalah sama (yaitu x1 = x2 = x3 . = xn), maka mereka akan sama dengan rata-rata, dan jadi S akan menjadi nol. jika x's tersebar luas, lalu S akan besar. Lewat sini, S mencerminkan variabilitas dalam data. Perhitungan standar deviasi dijelaskan dalam Contoh 3. Standar deviasi rentan terhadap outlier, jadi jika 2.1 diganti dengan 21 pada Contoh 3 kita akan mendapatkan hasil yang sangat berbeda.

Contoh 3 Perhitungan simpangan baku

Perhatikan data dari contoh 1. Perhitungan yang diperlukan untuk menentukan jumlah selisih kuadrat dari rata-rata diberikan pada Tabel 1 di bawah ini. Kami menemukan rata-ratanya adalah 1,5kg. Kami mengurangi ini dari setiap pengamatan. Perhatikan rata-rata kolom ini adalah nol. Ini akan selalu terjadi: penyimpangan positif dari rata-rata membatalkan yang negatif. Metode yang mudah untuk menghilangkan tanda negatif adalah mengkuadratkan deviasi, yang diberikan di kolom berikutnya. Nilai-nilai ini kemudian dijumlahkan untuk mendapatkan nilai 0,50 kg 2 . Kita perlu mencari deviasi kuadrat rata-rata. Akal sehat akan menyarankan membagi dengan n, tetapi ternyata ini sebenarnya memberikan perkiraan varians populasi, yang terlalu kecil. Ini karena kita menggunakan rata-rata yang diperkirakan dalam perhitungan dan kita harus benar-benar menggunakan rata-rata populasi yang sebenarnya. Dapat ditunjukkan bahwa lebih baik membagi dengan derajat kebebasan, yaitu n dikurangi jumlah parameter yang diperkirakan, dalam hal ini n-1. Cara intuitif untuk melihat ini adalah dengan menganggap seseorang memiliki n tiang telepon masing-masing berjarak 100 meter. Berapa banyak kawat yang dibutuhkan seseorang untuk menghubungkannya? Seperti halnya variasi, di sini kita tidak tertarik pada di mana kutub telegraf berada, tetapi seberapa jauh jaraknya. Pikiran sesaat seharusnya meyakinkan seseorang bahwa n-1 panjang kawat diperlukan untuk menghubungkan n tiang telegraf.

Tabel 1 Perhitungan mean kuadrat deviasi

Dari hasil perhitungan sejauh ini, kita dapat menentukan varians dan standar deviasi, sebagai berikut:

Varians = 0,50/(5-1) = 0,125 kg 2

Simpangan baku = (0,125) = 0,35 kg

Mengapa standar deviasi berguna?

Ternyata dalam banyak situasi bahwa sekitar 95% pengamatan akan berada dalam dua standar deviasi dari rata-rata, yang dikenal sebagai interval referensi. Karakteristik standar deviasi inilah yang membuatnya sangat berguna. Ini berlaku untuk sejumlah besar pengukuran yang biasa dilakukan dalam kedokteran. Secara khusus, ini berlaku untuk data yang mengikuti distribusi Normal. Standar deviasi tidak boleh digunakan untuk data yang sangat miring, seperti jumlah atau data terbatas, karena mereka tidak menggambarkan ukuran variasi yang berarti, dan sebaliknya IQR atau rentang harus digunakan. Secara khusus, jika standar deviasi memiliki ukuran yang sama dengan rata-rata, maka SD bukanlah ukuran ringkasan informatif, kecuali untuk menunjukkan bahwa data miring.


Psikologi OCR A-level: Metode Penelitian

Contoh:
Beri peringkat kata-kata yang sesuai dengan Anda sebagai yang paling penting dan yang tidak.

-> Keandalan tes-tes ulang: wawancarai peserta di kemudian hari lagi dan bandingkan respons mereka sebelumnya dengan respons mereka saat ini jika tidak ada perawatan yang diberikan, itu harus sama.

-> Keandalan pewawancara: wawancara diulang oleh dua pewawancara yang berbeda, untuk mengurangi efek bias pewawancara dan memeriksa konsistensi.

- Bandingkan peringkat atau lebih pengamat dan periksa kesepakatan dalam data mereka. Jika mereka setuju pada persentase rekaman observasi yang tinggi, maka reliabilitasnya tinggi. Ini disebut keandalan antar-penilai.

Meningkatkan validitas observasi:
- Melakukan observasi yang sama dalam setting yang bervariasi dengan partisipan yang bervariasi.

- Hipotesis dua sisi: tidak menyebutkan arah korelasi.

- Hipotesis satu arah: perlu menyertakan arah korelasi, mis. positif atau negatif.

- Hipotesis nol: Tidak akan ada korelasi yang signifikan antara _____ dan _____.

- terkadang dapat diubah menjadi data kuantitatif dan kemudian dianalisis. (ini dilakukan melalui analisis isi yang melibatkan pengkategorian data tertulis ke dalam tema inti)

- memberi peneliti gambaran yang lebih lengkap tentang perilaku yang dipertanyakan

- data interval: gunakan mean
- data ordinal: gunakan median
- data nominal: gunakan mode

- Range: nilai tertinggi dikurangi nilai terendah.

- Standar deviasi:
1. Tentukan rata-ratanya
2. Cari (x-x)^2 - dikurangi skor dari rata-rata kuadrat.
3. Jumlahkan angka-angka ini dan bagi dengan jumlah total nilai dikurangi 1.
4. Ambil akar kuadrat dari jawabannya.

(UNTUK PENJELASAN LEBIH BAIK -
https://www.mathsisfun.com/data/standard-deviation-formulas.html )

- Standar deviasi adalah ukuran variasi yang lebih baik daripada rentang karena tidak terlalu terpengaruh oleh nilai ekstrim, tetapi membutuhkan waktu lebih lama untuk menghitung.

- Data nominal
- Desain Tindakan Independen

1. Latihan (O-E)^2 / E untuk setiap kemungkinan --> E = total baris x total kolom / total keseluruhan

2. Jumlahkan keempat perhitungan tersebut.
- setelah x^2 telah dihitung --> tentukan derajat kebebasan (df) = (jumlah baris -1 ) x (jumlah kolom - 1)

- Setidaknya data ordinal
- Tindakan independen

N = jumlah peserta dalam satu kelompok
N^1 = angka di grup 1
N^2 = angka di grup 2.

PERLU PERINGKAT SEMUA SKOR DARI TERKECIL SAMPAI TERTINGGI. (untuk skor identik -> jumlahkan peringkat yang akan mereka ambil dan bagi dengan jumlah skor identik)
R^1 - jumlah total peringkat untuk grup 1
R^2 - jumlah total peringkat untuk grup 2

Langkah 1: Data dikategorikan ke dalam tabel hasil.
Langkah 2: Tanda-tanda positif dan negatif perlu ditambahkan.

(CONTOH PERTANYAAN PADA 24 BUKU METODE PENELITIAN)Jika kondisi A ya dan kondisi B tidak, ditambah (karena ini mendukung arah hipotesis) dan kebalikannya adalah minus.

Langkah 3: Mengharuskan penghitungan setiap tanda positif dan negatif yang ditetapkan untuk skor masing-masing peserta.
Langkah 4: Nilai S yang diamati dalam skor arah total terkecil.


Kontroversi itu

Dalam literatur pendidikan kedokteran, ada kontroversi lama mengenai apakah data ordinal, dikonversi ke angka, dapat diperlakukan sebagai data interval.2 Artinya, dapat berarti, standar deviasi, dan statistik parametrik, yang bergantung pada data yang terdistribusi normal (gambar 2), digunakan untuk menganalisis data ordinal?

Saat melakukan penelitian, kami mengukur data dari sampel total populasi yang diinginkan, bukan dari semua anggota populasi. Tes parametrik membuat asumsi tentang populasi yang mendasari dari mana data penelitian telah diperoleh—biasanya data populasi ini terdistribusi secara normal. Tes nonparametrik tidak membuat asumsi tentang "bentuk" populasi dari mana data studi telah diambil. Tes nonparametrik kurang kuat daripada tes parametrik dan biasanya membutuhkan ukuran sampel yang lebih besar (nilai n) untuk memiliki kekuatan yang sama dengan tes parametrik untuk menemukan perbedaan antar kelompok ketika perbedaan benar-benar ada. Statistik deskriptif, seperti mean dan standar deviasi, memiliki makna yang tidak jelas ketika diterapkan pada respons skala Likert. Misalnya, apa arti rata-rata dari "tidak pernah" dan "jarang" sebenarnya? Apakah "jarang dan setengah" memiliki arti yang berguna?3 Selanjutnya, jika tanggapan dikelompokkan pada ekstrem tinggi dan rendah, rata-rata mungkin tampak sebagai respons netral atau menengah, tetapi ini mungkin tidak cukup mencirikan data. Pengelompokan ekstrem ini biasa terjadi, misalnya, dalam evaluasi peserta pelatihan tentang pengalaman yang mungkin sangat populer di satu kelompok dan dianggap tidak perlu oleh orang lain (misalnya, kursus epidemiologi di sekolah kedokteran). Distribusi non-normal lainnya dari data respons juga dapat menghasilkan skor rata-rata yang bukan merupakan ukuran yang membantu dari tendensi sentral data.

Karena pengamatan ini, para ahli selama bertahun-tahun berpendapat bahwa median harus digunakan sebagai ukuran tendensi sentral untuk data skala Likert.3 Demikian pula, para ahli berpendapat bahwa frekuensi (persentase tanggapan dalam setiap kategori), tabel kontingensi, 2 tes, penilaian Spearman rho, atau Mann-Whitney kamu tes harus digunakan untuk analisis daripada tes parametrik, yang sebenarnya membutuhkan data interval (misalnya, T tes, analisis varians, korelasi Pearson, regresi).3 Namun, ahli lain menyatakan bahwa jika ada ukuran sampel yang memadai (setidaknya 5-10 pengamatan per kelompok) dan jika data terdistribusi normal (atau hampir normal), parametrik tes dapat digunakan dengan data ordinal skala Likert

Untungnya, Dr. Geoff Norman, salah satu pemimpin dunia dalam metodologi penelitian pendidikan kedokteran, telah meninjau kontroversi ini secara komprehensif. Dia memberikan bukti yang meyakinkan, dengan contoh aktual menggunakan data nyata dan simulasi, bahwa tes parametrik tidak hanya dapat digunakan dengan data ordinal, seperti data dari skala Likert, tetapi juga bahwa tes parametrik umumnya lebih kuat daripada tes nonparametrik. Artinya, tes parametrik cenderung memberikan “jawaban yang benar” bahkan ketika asumsi statistik—seperti distribusi data yang normal—dilanggar, bahkan sampai tingkat yang ekstrem.4 Dengan demikian, tes parametrik cukup kuat untuk menghasilkan jawaban yang sebagian besar tidak bias yang diterima dekat dengan "kebenaran" ketika menganalisis tanggapan skala Likert

Pendidik dan peneliti juga biasanya membuat beberapa item tipe Likert, mengelompokkannya ke dalam “skala survei”, dan kemudian menghitung skor total atau skor rata-rata untuk item skala tersebut. Seringkali praktik ini direkomendasikan, terutama ketika peneliti mencoba mengukur konsep yang kurang konkrit, seperti motivasi peserta pelatihan, kepuasan pasien, dan kepercayaan dokter—di mana satu item survei tidak mungkin dapat sepenuhnya menangkap konsep yang sedang dinilai. Dalam kasus tertentu, para ahli menyarankan penggunaan Cronbach alpha atau uji Kappa atau teknik analisis faktor untuk memberikan bukti bahwa komponen skala cukup saling berhubungan dan bahwa item yang dikelompokkan mengukur variabel yang mendasarinya.


Pengantar

Tiga modul pengujian hipotesis menyajikan sejumlah pengujian hipotesis untuk hasil yang berkesinambungan, dikotomis, dan diskrit. Tes untuk hasil berkelanjutan berfokus pada membandingkan cara, sedangkan tes untuk hasil dikotomis dan diskrit berfokus pada membandingkan proporsi. Semua tes yang disajikan dalam modul tentang pengujian hipotesis disebut tes parametrik dan didasarkan pada asumsi tertentu. Misalnya, ketika menjalankan tes hipotesis untuk sarana hasil yang berkelanjutan, semua tes parametrik mengasumsikan bahwa hasilnya kira-kira terdistribusi secara normal dalam populasi. This does not mean that the data in the observed sample follows a normal distribution, but rather that the outcome follows a normal distribution in the full population which is not observed. For many outcomes, investigators are comfortable with the normality assumption (i.e., most of the observations are in the center of the distribution while fewer are at either extreme). It also turns out that many statistical tests are robust, which means that they maintain their statistical properties even when assumptions are not entirely met. Tests are robust in the presence of violations of the normality assumption when the sample size is large based on the Central Limit Theorem (see page 11 in the module on Probability). When the sample size is small and the distribution of the outcome is not known and cannot be assumed to be approximately normally distributed, then alternative tests called nonparametric tests are appropriate.


SDG: design of the study, initiation of the research, gathering and analysing the data, writing the article RDC: design of the study, co-analysis of the data, editorial revision of earlier drafts RP: main supervision of the research project, design of the study, editorial revision of earlier drafts RC: design of the study, editorial revision of earlier drafts CDB: design of the study, editorial revision of earlier drafts MJ: supervision of the research project, design of the study, editorial revision of earlier drafts.

The authors would like to thank the nurses for their time and effort in participating in this study and two reviewers for their interesting suggestions for improving this manuscript.


Advantages of Parametric Tests

Advantage 1: Parametric tests can provide trustworthy results with distributions that are skewed and nonnormal

Many people aren&rsquot aware of this fact, but parametric analyses can produce reliable results even when your continuous data are nonnormally distributed. You just have to be sure that your sample size meets the requirements for each analysis in the table below. Simulation studies have identified these requirements. Read here for more information about these studies.

  • For 2-9 groups, each group should have more than 15 observations
  • For 10-12 groups, each group should have more than 20 observations

You can use these parametric tests with nonnormally distributed data thanks to the central limit theorem. For more information about it, read my post: Central Limit Theorem Explained.

Advantage 2: Parametric tests can provide trustworthy results when the groups have different amounts of variability

It&rsquos true that nonparametric tests don&rsquot require data that are normally distributed. However, nonparametric tests have the disadvantage of an additional requirement that can be very hard to satisfy. The groups in a nonparametric analysis typically must all have the same variability (dispersion). Nonparametric analyses might not provide accurate results when variability differs between groups.

Conversely, parametric analyses, like the 2-sample t-test or one-way ANOVA, allow you to analyze groups with unequal variances. In most statistical software, it&rsquos as easy as checking the correct box! You don&rsquot have to worry about groups having different amounts of variability when you use a parametric analysis.

Advantage 3: Parametric tests have greater statistical power

In most cases, parametric tests have more power. If an effect actually exists, a parametric analysis is more likely to detect it.


Measures of Location and Dispersion and their appropriate uses

Statistics: Measures of location and dispersion

  • Berarti
  • Median
  • Mode
  • Range
  • Interquartile Range
  • Standar deviasi

Measures of Location

Measures of location describe the central tendency of the data. They include the mean, median and mode.

Mean or Average

The (arithmetic) mean, or average, of n observations (pronounced “x bar”) is simply the sum of the observations divided by the number of observations thus:

In this equation, xi represents the individual sample values and Σxi their sum. The Greek letter 'Σ' (sigma) is the Greek capital 'S' and stands for 'sum'. Their calculation is described in example 1, below.

The median is defined as the middle point of the ordered data. It is estimated by first ordering the data from smallest to largest, and then counting upwards for half the observations. The estimate of the median is either the observation at the centre of the ordering in the case of an odd number of observations, or the simple average of the middle two observations if the total number of observations is even. More specifically, if there are an odd number of observations, it is the [(n+1)/2]th observation, and if there are an even number of observations, it is the average of the [n/2]th and the [(n/2)+1]th observations.

Example 1 Calculation of mean and median

Consider the following 5 birth weights, in kilograms, recorded to 1 decimal place:

The mean is defined as the sum of the observations divided by the number of observations. Thus mean = (1.2+1.3+…+2.1)/5 = 1.50kg. It is usual to quote 1 more decimal place for the mean than the data recorded.

There are 5 observations, which is an odd number, so the median value is the (5+1)/2 = 3rd observation, which is 1.4kg. Remember that if the number of observations was even, then the median is defined as the average of the [n/2]th and the [(n/2)+1]th. Thus, if we had observed an additional value of 3.5kg in the birth weights sample, the median would be the average of the 3rd and the 4th observation in the ranking, namely the average of 1.4 and 1.5, which is 1.45kg.

Advantages and disadvantages of the mean and median

The major advantage of the mean is that it uses all the data values, and is, in a statistical sense, efficient.

The main disadvantage of the mean is that it is vulnerable to outliers. Outliers are single observations which, if excluded from the calculations, have noticeable influence on the results. For example, if we had entered '21' instead of '2.1' in the calculation of the mean in Example 1, we would find the mean changed from 1.50kg to 7.98kg. It does not necessarily follow, however, that outliers should be excluded from the final data summary, or that they always result from an erroneous measurement.

The median has the advantage that it is not affected by outliers, so for example the median in the example would be unaffected by replacing '2.1' with '21'. However, it is not statistically efficient, as it does not make use of all the individual data values.

A third measure of location is the mode. This is the value that occurs most frequently, or, if the data are grouped, the grouping with the highest frequency. It is not used much in statistical analysis, since its value depends on the accuracy with which the data are measured although it may be useful for categorical data to describe the most frequent category. The expression 'bimodal' distribution is used to describe a distribution with two peaks in it. This can be caused by mixing populations. For example, height might appear bimodal if one had men and women on the population. Some illnesses may raise a biochemical measure, so in a population containing healthy and ill people one might expect a bimodal distribution. However, some illnesses are defined by the measure (e.g. obesity or high blood pressure) and in this case the distributions are usually unimodal.

Measures of Dispersion or Variability

Measures of dispersion describe the spread of the data. They include the range, interquartile range, standard deviation and variance.

Range and Interquartile Range

The range is given as the smallest and largest observations. This is the simplest measure of variability. Note in statistics (unlike physics) a range is given by two numbers, not the difference between the smallest and largest. For some data it is very useful, because one would want to know these numbers, for example knowing in a sample the ages of youngest and oldest participant. If outliers are present it may give a distorted impression of the variability of the data, since only two observations are included in the estimate.

Quartiles and Interquartile Range

The quartiles, namely the lower quartile, the median and the upper quartile, divide the data into four equal parts that is there will be approximately equal numbers of observations in the four sections (and exactly equal if the sample size is divisible by four and the measures are all distinct). Note that there are in fact only three quartiles and these are points not proportions. It is a common misuse of language to refer to being ‘in the top quartile’. Instead one should refer to being ‘in the top quarter or ‘above the top quartile’. However, the meaning of the first statement is clear and so the distinction is really only useful to display a superior knowledge of statistics! The quartiles are calculated in a similar way to the median first arrange the data in size order and determine the median, using the method described above. Now split the data in two (the lower half and upper half, based on the median). The first quartile is the middle observation of the lower half, and the third quartile is the middle observation of the upper half. This process is demonstrated in Example 2, below.

The interquartile range is a useful measure of variability and is given by the lower and upper quartiles. The interquartile range is not vulnerable to outliers and, whatever the distribution of the data, we know that 50% of observations lie within the interquartile range.

Example 2 Calculation of the quartiles

Suppose we had 18 birth weights arranged in increasing order.

1.51, 1.53. 1.55, 1.55, 1.79. 1.81, 2.10, 2.15, 2.18,

2.22, 2.35, 2.37, 2.40, 2.40, 2.45, 2.78. 2.81, 2.85.

The median is the average of the 9th and 10th observations (2.18+2.22)/2 = 2.20 kg. The first half of the data has 9 observations so the first quartile is the 5th observation, namely 1.79kg. Similarly the 3rd quartile would be the 5th observation in the upper half of the data, or the 14th observation, namely 2.40 kg. Hence the interquartile range is 1.79 to 2.40 kg.

Standard Deviation and Variance

The standard deviation of a sample (S) is calculated as follows:

The expression ∑(xSaya - ) 2 is interpreted as: from each individual observation (xSaya) subtract the mean (), then square this difference. Next add each of the n squared differences. This sum is then divided by (n-1). This expression is known as the sample variance (S 2 ). The variance is expressed in square units, so we take the square root to return to the original units, which gives the standard deviation, S. Examining this expression it can be seen that if all the observations were the same (i.e. x1 = x2 = x3 . = xn), then they would equal the mean, and so S would be zero. If the x's were widely scattered about, then S would be large. Lewat sini, S reflects the variability in the data. The calculation of the standard deviation is described in Example 3. The standard deviation is vulnerable to outliers, so if the 2.1 was replace by 21 in Example 3 we would get a very different result.

Example 3 Calculation of the standard deviation

Consider the data from example 1. The calculations required to determine the sum of the squared differences from the mean are given in Table 1, below. We found the mean to be 1.5kg. We subtract this from each of the observations. Note the mean of this column is zero. This will always be the case: the positive deviations from the mean cancel the negative ones. A convenient method for removing the negative signs is squaring the deviations, which is given in the next column. These values are then summed to get a value of 0.50 kg 2 . We need to find the average squared deviation. Common-sense would suggest dividing by n, but it turns out that this actually gives an estimate of the population variance, which is too small. This is because we are using the estimated mean in the calculation and we should really be using the true population mean. It can be shown that it is better to divide by the degrees of freedom, which is n minus the number of estimated parameters, in this case n-1. An intuitive way of looking at this is to suppose one had n telephone poles each 100 meters apart. How much wire would one need to link them? As with variation, here we are not interested in where the telegraph poles are, but simply how far apart they are. A moment's thought should convince one that n-1 lengths of wire are required to link n telegraph poles.

Table 1 Calculation of the mean squared deviation

From the results calculated thus far, we can determine the variance and standard deviation, as follows:

Variance = 0.50/(5-1) = 0.125 kg 2

Standard deviation = √(0.125) = 0.35 kg

Why is the standard deviation useful?

It turns out in many situations that about 95% of observations will be within two standard deviations of the mean, known as a reference interval. It is this characteristic of the standard deviation which makes it so useful. It holds for a large number of measurements commonly made in medicine. In particular, it holds for data that follow a Normal distribution. Standard deviations should not be used for highly skewed data, such as counts or bounded data, since they do not illustrate a meaningful measure of variation, and instead an IQR or range should be used. In particular, if the standard deviation is of a similar size to the mean, then the SD is not an informative summary measure, save to indicate that the data are skewed.


Pengantar

The three modules on hypothesis testing presented a number of tests of hypothesis for continuous, dichotomous and discrete outcomes. Tests for continuous outcomes focused on comparing means, while tests for dichotomous and discrete outcomes focused on comparing proportions. All of the tests presented in the modules on hypothesis testing are called parametric tests and are based on certain assumptions. For example, when running tests of hypothesis for means of continuous outcomes, all parametric tests assume that the outcome is approximately normally distributed in the population. This does not mean that the data in the observed sample follows a normal distribution, but rather that the outcome follows a normal distribution in the full population which is not observed. For many outcomes, investigators are comfortable with the normality assumption (i.e., most of the observations are in the center of the distribution while fewer are at either extreme). It also turns out that many statistical tests are robust, which means that they maintain their statistical properties even when assumptions are not entirely met. Tests are robust in the presence of violations of the normality assumption when the sample size is large based on the Central Limit Theorem (see page 11 in the module on Probability). When the sample size is small and the distribution of the outcome is not known and cannot be assumed to be approximately normally distributed, then alternative tests called nonparametric tests are appropriate.


The Controversy

In the medical education literature, there has been a long-standing controversy regarding whether ordinal data, converted to numbers, can be treated as interval data.2 That is, can means, standard deviations, and parametric statistics, which depend upon data that are normally distributed (figure 2), be used to analyze ordinal data?

When conducting research, we measure data from a sample of the total population of interest, not from all members of the population. Parametric tests make assumptions about the underlying population from which the research data have been obtained—usually that these population data are normally distributed. Nonparametric tests do not make this assumption about the “shape” of the population from which the study data have been drawn. Nonparametric tests are less powerful than parametric tests and usually require a larger sample size (n value) to have the same power as parametric tests to find a difference between groups when a difference actually exists. Descriptive statistics, such as means and standard deviations, have unclear meanings when applied to Likert scale responses. For example, what does the average of “never” and “rarely” really mean? Does “rarely and a half” have a useful meaning?3 Furthermore, if responses are clustered at the high and low extremes, the mean may appear to be the neutral or middle response, but this may not fairly characterize the data. This clustering of extremes is common, for example, in trainee evaluations of experiences that may be very popular with one group and perceived as unnecessary by others (eg, an epidemiology course in medical school). Other non-normal distributions of response data can similarly result in a mean score that is not a helpful measure of the data's central tendency.

Because of these observations, experts over the years have argued that the median should be used as the measure of central tendency for Likert scale data.3 Similarly, experts have contended that frequencies (percentages of responses in each category), contingency tables, χ 2 tests, the Spearman rho assessment, or the Mann-Whitney kamu test should be used for analysis instead of parametric tests, which, strictly speaking, require interval data (eg, T tests, analysis of variance, Pearson correlations, regression).3 However, other experts assert that if there is an adequate sample size (at least 5–10 observations per group) and if the data are normally distributed (or nearly normal), parametric tests can be used with Likert scale ordinal data.3

Fortunately, Dr. Geoff Norman, one of world's leaders in medical education research methodology, has comprehensively reviewed this controversy. He provides compelling evidence, with actual examples using real and simulated data, that parametric tests not only can be used with ordinal data, such as data from Likert scales, but also that parametric tests are generally more robust than nonparametric tests. That is, parametric tests tend to give “the right answer” even when statistical assumptions—such as a normal distribution of data—are violated, even to an extreme degree.4 Thus, parametric tests are sufficiently robust to yield largely unbiased answers that are acceptably close to “the truth” when analyzing Likert scale responses.4

Educators and researchers also commonly create several Likert-type items, group them into a “survey scale,” and then calculate a total score or mean score for the scale items. Often this practice is recommended, particularly when researchers are attempting to measure less concrete concepts, such as trainee motivation, patient satisfaction, and physician confidence—where a single survey item is unlikely to be capable of fully capturing the concept being assessed.5 In these cases, experts suggest using the Cronbach alpha or Kappa test or factor analysis technique to provide evidence that the components of the scale are sufficiently intercorrelated and that the grouped items measure the underlying variable.


OCR A-level Psychology: Research Methods

Contoh:
Rank the words that apply to you as most important and those that don't as least.

-> Test-restest reliability: interview the participants at a later date again and compare their previous response to their current response if no treatment was given it should be the same.

-> Inter-interviewer reliability: interview repeated by two different interviewers, to reduce the effect of interviewer bias and check consistency.

- Compare the ratings of or more observers and check for agreement in their data. If they agree on a high percentage of observational recordings, then the reliability is high. This is called inter-rater reliability.

Improving the validity of observations:
- Conduct the same observation in varied settings with varied participants.

- Two-tailed hypothesis: does not mention the direction of the correlation.

- One-tailed hypothesis: needs to include the direction of the correlation e.g. positive or negative.

- Null hypothesis: There will be no significant correlation between _____ and _____.

- sometimes it can be converted to quantitative data and then analysed. (this is done through content analysis which involves the categorising written data into core themes)

- gives the researcher a fuller picture of the behaviour in question

- interval data: use mean
- ordinal data: use median
- nominal data: use mode

- Range: highest values minus lowest value.

- Standard deviation:
1. Work out the mean
2. Find (x-x)^2 - minus the score from the mean squared.
3. Add these numbers together and divide by the total number of values minus 1.
4. Take the squared root of the answer.

( FOR A BETTER EXPLANATION -
https://www.mathsisfun.com/data/standard-deviation-formulas.html )

- Standard deviation is a better measure of variation than range since it is less affected by extreme values, but it takes longer to calculate.

- Nominal Data
- Independent Measures Design

1. Work out (O-E)^2 / E for each possibility --> E = row total x column total / overall total

2. Add together the four calculations.
- once x^2 has been calculated --> work out the degrees of freedom (df) = (number of rows -1 ) x (number of columns - 1)

- At least ordinal data
- Independent measures

N= number of participants in a group
N^1 = number in group 1
N^2 = number in group 2.

NEED TO RANK ALL SCORED FROM SMALLEST TO HIGHEST. (for identical scores -> add up the ranks they would have taken and divide by the number of identical scores)
R^1 - total sum of ranks for group 1
R^2 - total sum of ranks for group 2

Step 1: Data is categorised into a table of results.
Step 2: Positive and negative signs need to be added.

(EXAMPLE QUESTION ON 24 OF RESEARCH METHODS BOOKLET)If condition A is yes and condition B is no a plus is added (because this supports the direction of the hypothesis) and the opposite would be a minus.

Step 3: Requires the counting of each positive and negative sign assigned to each participant's scores.
Step 4: The observed value of S in the smallest total direction score.


Advantages of Parametric Tests

Advantage 1: Parametric tests can provide trustworthy results with distributions that are skewed and nonnormal

Many people aren&rsquot aware of this fact, but parametric analyses can produce reliable results even when your continuous data are nonnormally distributed. You just have to be sure that your sample size meets the requirements for each analysis in the table below. Simulation studies have identified these requirements. Read here for more information about these studies.

  • For 2-9 groups, each group should have more than 15 observations
  • For 10-12 groups, each group should have more than 20 observations

You can use these parametric tests with nonnormally distributed data thanks to the central limit theorem. For more information about it, read my post: Central Limit Theorem Explained.

Advantage 2: Parametric tests can provide trustworthy results when the groups have different amounts of variability

It&rsquos true that nonparametric tests don&rsquot require data that are normally distributed. However, nonparametric tests have the disadvantage of an additional requirement that can be very hard to satisfy. The groups in a nonparametric analysis typically must all have the same variability (dispersion). Nonparametric analyses might not provide accurate results when variability differs between groups.

Conversely, parametric analyses, like the 2-sample t-test or one-way ANOVA, allow you to analyze groups with unequal variances. In most statistical software, it&rsquos as easy as checking the correct box! You don&rsquot have to worry about groups having different amounts of variability when you use a parametric analysis.

Advantage 3: Parametric tests have greater statistical power

In most cases, parametric tests have more power. If an effect actually exists, a parametric analysis is more likely to detect it.


Isi

Consider the data (1, 1, 2, 2, 4, 6, 9). It has a median value of 2. The absolute deviations about 2 are (1, 1, 0, 0, 2, 4, 7) which in turn have a median value of 1 (because the sorted absolute deviations are (0, 0, 1, 1, 2, 4, 7)). So the median absolute deviation for this data is 1.

The median absolute deviation is a measure of statistical dispersion. Moreover, the MAD is a robust statistic, being more resilient to outliers in a data set than the standard deviation. In the standard deviation, the distances from the mean are squared, so large deviations are weighted more heavily, and thus outliers can heavily influence it. In the MAD, the deviations of a small number of outliers are irrelevant.

Because the MAD is a more robust estimator of scale than the sample variance or standard deviation, it works better with distributions without a mean or variance, such as the Cauchy distribution.

The MAD may be used similarly to how one would use the deviation for the average. In order to use the MAD as a consistent estimator for the estimation of the standard deviation σ , one takes

Therefore, we must have that

Another way of establishing the relationship is noting that MAD equals the half-normal distribution median:

This form is used in, e.g., the probable error.

Similarly to how the median generalizes to the geometric median in multivariate data, a geometric MAD can be constructed that generalizes the MAD. Given a 2 dimensional paired set of data (X1,kamu1), (X2,kamu2). (Xn,kamun) and a suitably calculated geometric median ( X

This gives the identical result as the univariate MAD in 1 dimension and extends easily to higher dimensions. In the case of complex values (x+ikamu), the relation of MAD to the standard deviation is unchanged for normally distributed data.

The population MAD is defined analogously to the sample MAD, but is based on the complete distribution rather than on a sample. For a symmetric distribution with zero mean, the population MAD is the 75th percentile of the distribution.

Unlike the variance, which may be infinite or undefined, the population MAD is always a finite number. For example, the standard Cauchy distribution has undefined variance, but its MAD is 1.

The earliest known mention of the concept of the MAD occurred in 1816, in a paper by Carl Friedrich Gauss on the determination of the accuracy of numerical observations. [4] [5]


SDG: design of the study, initiation of the research, gathering and analysing the data, writing the article RDC: design of the study, co-analysis of the data, editorial revision of earlier drafts RP: main supervision of the research project, design of the study, editorial revision of earlier drafts RC: design of the study, editorial revision of earlier drafts CDB: design of the study, editorial revision of earlier drafts MJ: supervision of the research project, design of the study, editorial revision of earlier drafts.

The authors would like to thank the nurses for their time and effort in participating in this study and two reviewers for their interesting suggestions for improving this manuscript.


The mean is usually the best measure of central tendency to use when your data distribution is continuous and symmetrical, such as when your data is normally distributed. However, it all depends on what you are trying to show from your data.

The mode is the least used of the measures of central tendency and can only be used when dealing with nominal data. For this reason, the mode will be the best measure of central tendency (as it is the only one appropriate to use) when dealing with nominal data. The mean and/or median are usually preferred when dealing with all other types of data, but this does not mean it is never used with these data types.


Parametric and Non-parametric tests for comparing two or more groups

Statistics: Parametric and non-parametric tests

Choosing a Test

In terms of selecting a statistical test, the most important question is "what is the main study hypothesis?" In some cases there is no hypothesis the investigator just wants to "see what is there". For example, in a prevalence study there is no hypothesis to test, and the size of the study is determined by how accurately the investigator wants to determine the prevalence. If there is no hypothesis, then there is no statistical test. It is important to decide sebuah prioritas which hypotheses are confirmatory (that is, are testing some presupposed relationship), and which are exploratory (are suggested by the data). No single study can support a whole series of hypotheses. A sensible plan is to limit severely the number of confirmatory hypotheses. Although it is valid to use statistical tests on hypotheses suggested by the data, the P values should be used only as guidelines, and the results treated as tentative until confirmed by subsequent studies. A useful guide is to use a Bonferroni correction, which states simply that if one is testing n independent hypotheses, one should use a significance level of 0.05/n. Thus if there were two independent hypotheses a result would be declared significant only if P<0.025. Note that, since tests are rarely independent, this is a very conservative procedure – i.e. one that is unlikely to reject the null hypothesis. The investigator should then ask "are the data independent?" This can be difficult to decide but as a rule of thumb results on the same individual, or from matched individuals, are not independent. Thus results from a crossover trial, or from a case-control study in which the controls were matched to the cases by age, sex and social class, are not independent.

  • Analysis should reflect the design, and so a matched design should be followed by a matched analysis.
  • Results measured over time require special care. One of the most common mistakes in statistical analysis is to treat correlated variables as if they were
    independent. For example, suppose we were looking at treatment of leg ulcers, in which some people had an ulcer on each leg. We might have 20 subjects with
    30 ulcers but the number of independent pieces of information is 20 because the state of ulcers on each leg for one person may be influenced by the state of
    health of the person and an analysis that considered ulcers as independent observations would be incorrect. For a correct analysis of mixed paired and unpaired
    data consult a statistician.

The next question is "what types of data are being measured?" The test used should be determined by the data. The choice of test for matched or paired data is described in Table 1 and for independent data in Table 2.

Table 1 Choice of statistical test from paired or matched observation

It is helpful to decide the input variables and the outcome variables. For example, in a clinical trial the input variable is the type of treatment - a nominal variable - and the outcome may be some clinical measure perhaps Normally distributed. The required test is then the T-test (Table 2). However, if the input variable is continuous, say a clinical score, and the outcome is nominal, say cured or not cured, logistic regression is the required analysis. A T-test in this case may help but would not give us what we require, namely the probability of a cure for a given value of the clinical score. As another example, suppose we have a cross-sectional study in which we ask a random sample of people whether they think their general practitioner is doing a good job, on a five point scale, and we wish to ascertain whether women have a higher opinion of general practitioners than men have. The input variable is gender, which is nominal. The outcome variable is the five point ordinal scale. Each person's opinion is independent of the others, so we have independent data. From Table 2 we should use a χ 2 test for trend, or a Mann-Whitney U test with a correction for ties (N.B. a tie occurs where two or more values are the same, so there is no strictly increasing order of ranks – where this happens, one can average the ranks for tied values). Note, however, if some people share a general practitioner and others do not, then the data are not independent and a more sophisticated analysis is called for. Note that these tables should be considered as guides only, and each case should be considered on its merits.

Table 2 Choice of statistical test for independent observations

a If data are censored. b The Kruskal-Wallis test is used for comparing ordinal or non-Normal variables for more than two groups, and is a generalisation of the Mann-Whitney U test. c Analysis of variance is a general technique, and one version (one way analysis of variance) is used to compare Normally distributed variables for more than two groups, and is the parametric equivalent of the Kruskal-Wallistest. d If the outcome variable is the dependent variable, then provided the residuals (the differences between the observed values and the predicted responses from regression) are plausibly Normally distributed, then the distribution of the independent variable is not important. e There are a number of more advanced techniques, such as Poisson regression, for dealing with these situations. However, they require certain assumptions and it is often easier to either dichotomise the outcome variable or treat it as continuous.

Parametric tests are those that make assumptions about the parameters of the population distribution from which the sample is drawn. This is often the assumption that the population data are normally distributed. Non-parametric tests are “distribution-free” and, as such, can be used for non-Normal variables. Table 3 shows the non-parametric equivalent of a number of parametric tests.

Table 3 Parametric and Non-parametric tests for comparing two or more groups

Non-parametric tests are valid for both non-Normally distributed data and Normally distributed data, so why not use them all the time?

It would seem prudent to use non-parametric tests in all cases, which would save one the bother of testing for Normality. Parametric tests are preferred, however, for the following reasons:

1. We are rarely interested in a significance test alone we would like to say something about the population from which the samples came, and this is best done with
estimates of parameters and confidence intervals.

2. It is difficult to do flexible modelling with non-parametric tests, for example allowing for confounding factors using multiple regression.

3. Parametric tests usually have more statistical power than their non-parametric equivalents. In other words, one is more likely to detect significant differences when
they truly exist.

Do non-parametric tests compare medians?

It is a commonly held belief that a Mann-Whitney U test is in fact a test for differences in medians. However, two groups could have the same median and yet have a significant Mann-Whitney U test. Consider the following data for two groups, each with 100 observations. Group 1: 98 (0), 1, 2 Group 2: 51 (0), 1, 48 (2). The median in both cases is 0, but from the Mann-Whitney test P<0.0001. Only if we are prepared to make the additional assumption that the difference in the two groups is simply a shift in location (that is, the distribution of the data in one group is simply shifted by a fixed amount from the other) can we say that the test is a test of the difference in medians. However, if the groups have the same distribution, then a shift in location will move medians and means by the same amount and so the difference in medians is the same as the difference in means. Thus the Mann-Whitney U test is also a test for the difference in means. How is the Mann- Whitney U test related to the T-test? If one were to input the ranks of the data rather than the data themselves into a two sample T-test program, the P value obtained would be very close to that produced by a Mann-Whitney U test.