Channel Youtube ini adalah cita-cita lama saya untuk memudahkan pembaca yang memiliki keterbatasan waktu untuk membaca penuh artikel atau pembaca yang kesulitan memahami bahasa tulis. Berhubung laptop saya adalah laptop tua yang bersuara keras jika digunakan untuk rekaman, ditambah lagi sering nge-hang jika digunakan untuk analisis data yang berat, maka proses rekaman menjadi terhambat. Cita-cita membuat channel Youtube akhirnya terealisasi berkat dukungan istri (laptop istri lebih tepatnya). Dikarenakan istri sekarang sudah berubah status menjadi full time mother, jadi laptopnya nganggur dan sayang kalau tidak diberdayakan. Jadilah laptop tersebut jadi modal bagi saya untuk rekaman dan membuat channel Youtube ini.
Analisis dan Seleksi Item Skala dengan SPSS
Hanif Akhtar
Dalam proses penyusunan skala, setelah skala dievaluasi oleh para pakar terkait revelansi item dan juga tata bahasanya, skala tersebut harus diujicobakan ke subjek dalam jumlah besar (lebih dari 30 orang). Uji coba ini dilakukan guna melihat reliabilitas skala dan juga daya diskriminasi (korelasi item-total) masing-masing item. Proses ini dapat dilakukan dengan bantuan software analisis data, salah satunya SPSS.
Analisis Regresi Tunggal dan Berganda dengan SPSS
Hanif Akhtar
Koefien korelasi hanya mampu menggambarkan kuat lemahnya hubungan dua variabel, namun tidak mampu menjelaskan hubungan funsional variabel mana yang menjadi sebab dan variabel mana yang menjadi akibat. Analisis regresi mempelajari bentuk hubungan antara satu atau lebih variabel bebas (X) dengan satu variabel tergantung (Y). Oleh karena itu, secara umum dapat dikatakan analisis regresi merupakan kelanjutan dari analisis korelasi karena dapat menentukan daya prediksi perubahan variabel Y akibat perubahan variabel X. Untuk dapat melakukan analisis regresi, data kita minimal harus berada pada level interval dan terdistribusi normal. Untuk menguji asumsi normalitas, dapat dilihat di sini.
Analisis Korelasi Pearson dan Korelasi Parsial dengan SPSS
Hanif Akhtar
Korelasi dapat diartikan sebagai hubungan antar variabel. Jadi analisis korelasi pada prinsipnya adalah untuk melihat seberapa kuat hubungan antar variabel dan bagaimana arahnya. Kuat lemahnya hubungan dinyatakan dalam koefisien korelasi yang sering disingkat r. Sementara arah hubungan ditunjukkan dengan hubungan positif atau negatif. Jika dua variabel memiliki hubungan yang positif, maka semakin tinggi suatu variabel semakin tinggi pula variabel yang lain. Namun jika dua variabel memiliki hubungan yang negatif, maka semakin tinggi suatu variabel semakin rendah variabel yang lain. Dalam korelasi semua variabel memiliki kedudukan yang sama, dan tidak ada variabel yang mempengaruhi (independen) atau variabel yang dipengaruhi (dependen).
Analisis Anakova dengan SPSS
Hanif Akhtar
Analisi Kovarians (ANAKOVA) secara sederhana merupakan penggabungan antara Anova dengan analisis korelasi. Jika Anova hanya digunakan untuk membandingkan mean antar kelompok saja, maka dalam Anakova selain membandingkan mean antar kelompok juga menghitung korelasi dengan variabel lain. Kita membandingkan variabel tergantung (Y) ditinjau dari variabel bebas (X1) sekaligus menghubungkan variabel tersebut dengan variabel bebas lainnya (X2). Variabel X2 yang dipakai memprediksi inilah yang dinamakan dengan kovariabel.
Analisis Kruskall-Wallis dengan SPSS
Hanif Akhtar
Analisis Kruskall-Wallis digunakan dalam penelitian komparasi dengan membandingkan dua kelompok atau lebih yang independen. Kelompok yang independen maksudnya masing-masing kelompok berasal dari subjek yang berbeda. Misalkan kita ingin membandingkan kepercayaan diri antara orang Jawa, Sunda, dan Batak, maka teknik ini dapat digunakan. Teknik ini masuk dalam keluarga teknik analisis statistik non-parametrik, sehingga untuk melakukan analisis ini asumsi yang diperlukan tidak seketat statistik parametrik.
Analisis One-Way ANOVA dengan SPSS
Hanif Akhtar
ANOVA digunakan dalam penelitian komparasi dengan membandingkan nilai dari dua kelompok atau lebih yang independen. Kelompok yang independen maksudnya masing-masing kelompok berasal dari subjek yang berbeda. Misalkan kita ingin membandingkan kepercayaan antara orang Jawa, Sunda, dan Batak, maka teknik ini dapat digunakan. Teknik ini masuk dalam keluarga teknik analisis statistik parametrik, sehingga untuk dapat dilakukan analisis harus dipenuhi beberapa asumsi. Salah satu asumsi yang berlaku bagi semua analisis statistik parametrik adalah asumsi normalitas. selain Untuk menguji asumsi normalitas caranya dapat dilihat di sini. Selain itu data harus berada pada level interval atau rasio. Asumsi lainnya khusus untuk teknik ini adalah homogenitas varians antar kelompok yang nanti akan dibahas dalam tulisan ini.
Berdasarkan jumlah faktornya (variabel independen), anova dapat dibedakan menjadi One-way Anova (satu variabel independen), Two-way Anova (dua variabel independen), dan Multi-way Anova (lebih dari dua variabel independen). Berdasarkan jumlah variabel dependennya, Anova dapat dibedakan menjadi anova univariat dan Anova multivariat. Tulisan ini akan menjelaskan cara analisis one-way Anova univariat.
Berdasarkan jumlah faktornya (variabel independen), anova dapat dibedakan menjadi One-way Anova (satu variabel independen), Two-way Anova (dua variabel independen), dan Multi-way Anova (lebih dari dua variabel independen). Berdasarkan jumlah variabel dependennya, Anova dapat dibedakan menjadi anova univariat dan Anova multivariat. Tulisan ini akan menjelaskan cara analisis one-way Anova univariat.
Analisis Wilcoxon Matched Pairs dengan SPSS
Hanif Akhtar
Wilcoxon Matched Pairs digunakan dalam penelitian komparasi dengan membandingkan nilai dari dua kelompok yang yang berkaitan. Kelompok yang berkaitan berarti data didapat dari dua kelompok dengan subjek yang sama namun dalam waktu pengetesan yang berbeda. Misalkan kita ingin membandingkan konsentrasi siswa sebelum dan sesudah makan siang, maka teknik ini dapat digunakan. Teknik ini masuk dalam keluarga teknik analisis statistik non-parametrik, sehingga sehingga untuk melakukan analisis ini asumsi yang diperlukan tidak seketat statistik parametrik.
Analisis Paired Sample T-Test dengan SPSS
Hanif Akhtar
Paired sample t-test digunakan dalam penelitian komparasi
dengan membandingkan nilai dari dua kelompok yang yang berkaitan. Kelompok yang
berkaitan berarti data didapat dari dua kelompok dengan subjek yang sama namun
dalam waktu pengetesan yang berbeda. Misalkan kita ingin membandingkan konsentrasi
siswa sebelum dan sesudah makan siang, maka teknik ini dapat digunakan. Teknik
ini masuk dalam keluarga teknik analisis statistik parametrik, sehingga untuk
dapat dilakukan analisis harus dipenuhi beberapa asumsi. Salah satu asumsi yang
berlaku bagi semua analisis statistik parametrik adalah asumsi normalitas.
Untuk menguji asumsi normalitas caranya dapat dilihat di sini.
Analisis Mann-Whitney U dengan SPSS
Hanif Akhtar
Mann-Whitney U digunakan dalam penelitian komparasi dengan
membandingkan nilai dari dua kelompok yang berbeda. Kelompok yang berbeda
berarti data didapat dari dua kelompok dengan subjek yang berbeda. Misalkan
kita ingin membandingkan inteligensi antara laki-laki dan perempuan, maka
teknik ini dapat digunakan. Teknik ini masuk dalam keluarga teknik analisis
statistik non-parametrik, sehingga untuk melakukan analisis ini asumsi yang
diperlukan tidak seketat statistik parametrik.
Analisis Independent Sample T-Test dengan SPSS
Hanif Akhtar
Dalam penelitian komparasi, jika kita ingin membandingkan
nilai dari dua kelompok yang berbeda, maka teknik analisis yang dapat kita
gunakan adalah independent sample t-test. Kelompok yang berbeda berarti data
didapat dari dua kelompok dengan subjek yang berbeda. Misalkan kita ingin
membandingkan inteligensi antara laki-laki dan perempuan, maka teknik ini dapat
digunakan. Teknik ini masuk dalam keluarga teknik analisis statistik
parametrik, sehingga untuk dapat dilakukan analisis harus dipenuhi beberapa
asumsi. Salah satu asumsi yang berlaku bagi semua analisis statistik parametrik
adalah asumsi normalitas. Untuk menguji asumsi normalitas caranya dapat dilihat
di sini. Asumsi lainnya khusus untuk
teknik ini adalah homogenitas varians yang nanti akan dibahas dalam tulisan
ini.
Uji Asumsi Normalitas dengan SPSS
Hanif Akhtar
Ketika kita hendak melakukan analisis statistik
parametrik, kita perlu melakukan verifikasi asumsi normalitas. Jadi sebelum
dilakukan analisis statistik, seperti analisis korelasi Pearson, regresi,
t-test, atau anova, terlebih dahulu data kita harus diuji apakah normal atau
tidak. Uji Normalitas dilakukan untuk memastikan data yang telah dikumpulkan
berdistribusi normal atau diambil dari populasi normal. Pada dasarnya distribusi
normal merupakan suatu distribusi yang menunjukkan sebaran data yang seimbang
yang sebagian besar data adalah mendekati nilai mean. Kalau digambarkan dengan
histrogram, akan menyerupai bentuk lonceng.
Estimasi Reliabilitas Antar Rater (Interrater Reliability) dengan SPSS
Hanif Akhtar
Dalam proses uji reliabilitas alat ukur, pendekatan
konsistensi internal dengan koefisien Alpha Cronbach menjadi koefisien
reliabilitas yang menjadi yang paling populer. Pendekatan ini cocok digunakan
untuk alat ukur yang sifatnya self
repport, sehingga reliabilitas dimaknai sebagai konsistensi jawaban dari
responden terhadap item-item dalam alat ukur. Pendekatan lain yang menggunakan
prinsip berbeda adalah reliabilitas antar rater. Pendekatan ini dipakai untuk
menilai kesepakatan antar rater dalam menilai suatu individu. Dengan demikian
reliabilitas tersebut melekat pada skor yang diberikan, bukan pada alat ukurnya.
Misalkan dalam suatu kompetisi lompat indah, dua juri menilai seberapa indah
lompatan atlet tersebut. Jika kedua juri tersebut memiliki penilaian yang hampir
sama, maka ada kesepakatan penilaian, yang berarti reliabilitasnya tinggi. Namun
sebaliknya, jika juri pertama menilai lompatannya sangat indah sedangkan juri
kedua menilai lompatannya biasa saja, maka tidak ada kesepakatan.
Prosedur Adaptasi Alat Ukur
Hanif Akhtar
Salah satu kesalahan umum dalam proses adaptasi adalah bahwa adaptasi hanya dilakukan dengan menerjemahkan alat ukur dari bahasa asing ke bahasa Indonesia. Padahal jika dipelajari lebih dalam lagi, adaptasi bukan semata-mata menerjemahkan alat ukur, namun juga menyesuaikan apakah tes tersebut kontekstual dengan kondisi sosial budaya masyarakat tujuan. Adaptasi alat ukur meliputi aktivitas dari menentukan apakah alat ukur dapat mengukur konstruk yang sama dalam bahasa dan budaya yang berbeda, memilih penerjemah, memutuskan akomodasi yang sesuai, sampai mengecek kesetaraannya dalam bentuk yang diadaptasi (Hambleton, Merenda, & Spielberger 2005).
Perbedaan Indeks Diskriminasi Item, Korelasi Point-biserial, dan Korelasi Biserial
Hanif Akhtar
Dalam proses penyusunan alat tes, proses seleksi item menjadi bagian yang sangat krusial. Proses ini bertujuan untuk memilih item mana saja yang layak kita masukkan dalam alat tes kita. Dalam analisis dengan teori tes klasik, daya diskriminasi item menjadi salah satu paramater yang paling utama dalam seleksi item. Daya diskriminasi item menunjukkan seberapa baik item dalam membedakan individu mana yang memiliki kemampuan dan mana yang tidak. Dalam konteks tes kognitif, dimana jawaban soal hanya diskor benar dan salah (1/0), ada tiga jenis parameter diskriminasi item yang biasa digunakan, yakni indeks diskriminasi item, korelasi point-biserial, dan korelasi biserial. Diantara ketiganya, terkadang kita bingung mau menggunakan yang mana karena tidak terlalu memahami perbedaannya. Tulisan ini akan menjelaskan perbedaan ketiganya dan bagaimana penggunaannya.
Memaknai Corrected Item-Total Correlation pada Alat Ukur Penelitian
Ketika kita menggunakan pendekatan kuantitatif dalam melakukan
sebuah penelitian, tentunya kita akan menggunakan alat ukur untuk mendapatkan
data yang dibutuhkan. Alat ukur berguna untuk menguantifikasikan variabel yang
ingin diukur. Seperti halnya jika kita ingin mengetahui tekanan darah, kita
bisa menggunakan tensimeter. Tentunya, tensimeter yang sudah dikalibrasi
sehingga menghasilkan nilai tekanan darah yang valid dan reliabel. Pengukuran
tekanan darah merupakan contoh pengukuran atribut fisik. Bagaimana jika kita
ingin mengukur atribut psikologis?
Perlunya Melakukan Uji Linearitas dan Cara Mengatasi Data Tidak Linear
Hanif Akhtar
Dalam beberapa analisis statistik parametrik, seperti
korelasi pearson dan analisis regresi, salah satu asumsi yang mendasari
analisis adalah hubungan antar variabel membentuk pola (model) yang linear.
Model linear artinya pola hubungan kedua variabel independen dan dependen akan
membentuk satu garis lurus. Beberapa pendapat muncul terkait perlu tidaknya
kita menguji asumsi linearitas ini terlebuh dahulu sebelum melakukan uji
hipotesis. Pendapat ini wajar saja, karena memang uji hipotesis, dengan
korelasi pearson misalnya, mendasarkan hubungannya harus linear, jadi ketika
hasil korelasi signifikan, sudah dipastikan asumsi linearitas juga terpenuhi.
Jadi menguji asumsi linearitas di awal adalah sesuatu yang mubazir.
Memahami Penggunaan Signifikansi 1-tailed dan 2-tailed
Dalam pengujian hipotesis, kita
sering langsung melihat pada nilai signifikansinya (p). Ketika nilai signifikansi
kurang dari 0,05 (p<0,05) maka hipotesis nihil ditolak dan hipotesis alternatif
diterima (Field, 2013). Panduan tersebut menjadi
dasar ketika membaca hasil pengujian hipotesis sehingga dengan mudah kita
menyimpulkan terdapat hubungan/perbedaan atau tidak terdapat
hubungan/perbedaan. Namun, kita tidak melihat apakah hipotesis tersebut diuji berdasar
1-tailed atau 2-tailed. Hal ini dikarenakan kita tidak sadar akan keberadaan
istilah tersebut dan tidak tahu fungsi dari adanya istilah tersebut.
Perbedaan Kategorisasi Data berdasarkan Statistik Hipotetik dan Empirik
Hanif Akhtar
Dalam kita mengkategorisasikan data, terkadang pertanyaan
yang sering muncul adalah, kita mau pakai statistik hipotetik atau empirik nih?
Dulu waktu skripsi, saya menggunakan statistik hipotetik karena dalam buku salah
satu profesor saya (Pak Azwar), untuk mengkategorikan subjek ke dalam kelompok tinggi,
sedang, dan rendah yang digunakan adalah statistik hipotetik. Namun kemudian
oleh dosen penguji prosedur saya ini dikatakan salah. “Untuk apa kita mengambil
data sampel, kalau kita mengkategorisasikannya memakai statistik hipotetik”,
begitu kata beliau. Saya yang saat itu masih polos diam saja dan mengiyakan saja
perkataan dosen penguji. Sekarang saya coba merefleksikan saran itu kembali
dan menuliskan pendapat saya
mengenai perbedaan keduanya di sini. Untuk cara kategorisasinya dapat dilihat di sini
Oiya, bagi yang belum tahu maksudnya statistik hipotetik dan empirik, jadi gambarannya begini. Statistik yang dimaksud di sini banyak merujuk ke mean dan standar deviasi (SD). Jadi statistik hipotetik adalah nilai mean dan SD yang mungkin diperoleh dari sejumlah item soal. Jadi kalau suatu tes dengan skala 0-4 memiliki 6 item, maka nilai terendah (Xmin) yang mungkin diperoleh adalah 0 dan nilai tertinggi yang mungkin diperoleh (Xmaks) adalah 24. Dengan demikian mean hipotetiknya adalah titik tengah 0 dan 24 yaitu 12. Sementara SD hipotetiknya adalah 24/6=4. Sementara statistik empirik adalah statistik yang diperoleh dari data sesungguhnya pada sampel kita. Bisa jadi nilai mean dan SD nya lebih tinggi, lebih rendah, atau sama dengan mean dan SD hipotetiknya.
Oiya, bagi yang belum tahu maksudnya statistik hipotetik dan empirik, jadi gambarannya begini. Statistik yang dimaksud di sini banyak merujuk ke mean dan standar deviasi (SD). Jadi statistik hipotetik adalah nilai mean dan SD yang mungkin diperoleh dari sejumlah item soal. Jadi kalau suatu tes dengan skala 0-4 memiliki 6 item, maka nilai terendah (Xmin) yang mungkin diperoleh adalah 0 dan nilai tertinggi yang mungkin diperoleh (Xmaks) adalah 24. Dengan demikian mean hipotetiknya adalah titik tengah 0 dan 24 yaitu 12. Sementara SD hipotetiknya adalah 24/6=4. Sementara statistik empirik adalah statistik yang diperoleh dari data sesungguhnya pada sampel kita. Bisa jadi nilai mean dan SD nya lebih tinggi, lebih rendah, atau sama dengan mean dan SD hipotetiknya.
Ilustrasi
Dalam suatu ujian matematika, dari 100 soal yang ada, Ali
berhasil menjawab soal 55 dengan benar. Pertanyaannya, bagaimanakah kategori
nilai Ali tersebut, apakah termasuk kelompok rendah, sedang, atau tinggi? Jika
dalam ujian itu hanya Ali saja yang diuji, tentulah kita tidak memiliki
pembanding, dengan demikian satu-satunya pembanding yang dapat digunakan adalah
alat tes tersebut. Karena nilai 55 hanya sedikit di atas mean (mean
hipotetik=50), maka bisa kita katakan nilai Ali tersebut sedang. Namun bagaimana
jika soal tersebut sebenarnya sangat sulit, dan mean dari nilai 100 siswa dalam
ujian matematika ini adalah 25? Tentu bisa kita katakan, nilai Ali ini masuk kategori
tinggi dalam kelompoknya. Kita juga bisa mengatakan, jika dengan melihat jumlah
soal, secara keseluruhan nilai matematika 100 siswa tersebut adalah rendah.
Jika digambarkan bentuk histogramnya kira-kira seperti
ini.
Kembali ke pengelompokan menggunakan statistik hipotetik
atau empirik. Penggunaan statistik empirik didasarkan pada kurve normal
distribusi skor suatu kelompok, dengan demikian kategorisasi dengan menggunakan
statistik empirik akan selalu menghasilkan pola kategori yang sesuai seperti
bentuk kurve normal, yakni yang masuk kategori sedang selalu lebih banyak
dibanding yang masuk kategori tinggi dan rendah. Sementara penggunaan statistik
hipotetik tidak selalu mengikuti kurve normal dari skor kelompok.
Sebagai gambaran, dari contoh di atas kalau digunakan
statistik empirik dan hipotetik, kurang lebih kategoriasinya akan seperti ini.
Hasil kategorisasi berdasarkan statistik empirik
Kelompok
|
Jumlah
|
Rendah
|
21 (21%)
|
Sedang
|
50 (50%)
|
Tinggi
|
19 (19%)
|
Hasil kategorisasi berdasarkan statistik hipotetik
Kelompok
|
Jumlah
|
Rendah
|
93 (93%)
|
Sedang
|
4 (4%)
|
Tinggi
|
1 (1%)
|
Dari dua contoh kategorisasi skor matematika di kelas
dengan menggunakan statistik empirik dan hipotetik di atas kita dapat lihat
bahwa, jika kita menggunakan statistik empirik, kategorisasi akan membentuk
distribusi normal, sedangkan pada statistik hipotetik tidak. Lalu apa beda
keduanya? Kembali lagi pada tujuan mengkategorisasikannya. Jika tujuannya
adalah melihat posisi relatif individu pada kelompoknya, maka yang digunakan
adalah statistik empirik. Jadi nilai Ali yang hanya 55 masuk kategori tinggi
dalam kelompok kelas itu. Namun jika tujuannya adalah melihat skor kelompok
secara umum, maka yang digunakan adalah statistik hipotetik.
Jadi secara umum, statistik empirik tepat jika digunakan
untuk interpretasi pada level individu, sedangkan statistik hipotetik cocok
untuk interpretasi kelompok. Menggunakan statistik empirik untuk interpretasi
kelompok tentu akan bias dan tidak memberikan banyak informasi, karena sudah
pasti secara umum subjek akan berada ada kategori sedang. Sementara menggunakan
statistik hipotetik untuk interpretasi individu juga tidak fair karena tidak
melihat nilai anggota kelompok yang lain.
Dalam interpretasi hasil pengukuran kita juga mengenal ada
dua pendekatan yang sering digunakan, yakni referensi berupa norma (norm referenced) dan referensi berupa
kriteria (criterion referenced). Penggunaan
referensi berupa norma berusaha untuk membedakan antara individu dalam
populasi, sementara refrensi berdasarkan kriteria berusaha membedakan penguasaan
individu berdasarkan kriteria yang ditentukan. Sebenarnya kedua hal ini juga
setara dengan penggunaan statistik empirik dan hipotetik. Statistik empirik
setara dengan pendekatan referensi berupa norma, sementara statistik hipotetik
setara dengan pendekatan referensi berupa kriteria.
Dampak dari penggunaan referensi berupa norma adalah
melibatkan sampel yang jumlahnya cukup besar, seperti yang digunakan dalam tes
inteligensi. Skor yang diperoleh seseorang akan dilihat posisi relatifnya
berdasarkan skor pada populasi. Contohnya adalah pada tes Inteligensi. Pada
tahap pembuatan alat tes akan dibuat norma yang digunakan untuk interpretasi
skor individu. Norma dibuat dengan mengambil sampel yang cukup banyak, karena
diharapkan norma ini akan mewakili populasi. (sebagai contoh norma tes WJ-IV
dibuat dari sampel sejumlah 7.000 orang).
Sementara penggunaan referensi menggunakan kriteria menghendaki
alat ukur yang sudah tervalidasi berulang kali. Kriteria yang ditetapkan bisa
disesuaikan dengan tujuan pengukuran. Misalnya, tes TOEFL digunakan untuk
seleksi beasiswa. Pantia menetapkan batas minimal tes TOEFL adalah 500, dengan
demikian interpretasi skor tersebut hanya berlaku pada individu tersebut tanpa
melihat skor kelompok.
Dari penejelasan di atas, dapat dirangkum perbedaan penggunaan
statistik empirik dan hipotetik sebagai berikut.
Statistik
empirik
|
Statistik
hipotetik
|
Digunakan untuk melihat posisi relatif individu
terhadap kelompok
|
Digunakan untuk melihat posisi relatif kelompok beasarkan
alat ukur
|
Interpretasi relatif terhadadap kelompok. Berbeda
kelompok akan menghasilkan kategori yang berbeda.
|
Interpretasi relatif terhadap alat ukur. Berbeda
tingkat kesulitan alat ukur (meskipun megukur variabel yang sama) dapat
menghasilkan kategori yang berbeda.
|
Menggunakan sampel yang besar
|
Menggunakan alat ukur yang sudah tervalidasi berulang
kali
|
Jadi memakai
statistik empirik atau hipotetik?
Secara mudah seperti ini saja
- Jika tujuan utama untuk melihat posisi relatif individu
dalam kelompok, maka gunakan statistik empirik. Jika tujuan utama untuk melihat
posisi relatif kelompok secara umum terhadap alat tes, gunakan statistik
hipotetik.
- Jika alat tes sudah memiliki norma yang disusun dari statistik
empirik sampel dalam jumlah banyak sebelumnya, gunakan statistik empirik. Misal,
tes inteligensi yang sudah dibuat normanya berdasarkan ribuan sampel sebelumnya,
gunakan kategorisasi dari statistik empirik alat tes inteligensi tersebut.
- Jika penelitian hanya dilakukan pada sampel yang sedikit,
atau hanya untuk menggambarkan data kita secara umum tanpa digunakan untuk
interpretasi lebih mendalam terhadap individu, gunakan statistik hipotetik.
Cara Membuat Kategorisasi Data Penelitian dengan SPSS
Hanif Akhtar
Dalam laporan karya ilmiah, peneliti tidak hanya
melaporkan hasil dari uji hipotesisinya dengan statistik inferensial saja,
tetapi juga memberikan deskripsi dari data yang diperoleh. Hal ini dilakukan
untuk memberikan informasi bagi pembaca awam serta kedalaman dalam pembahasan.
Pada umumnya bagian deskriptif subjek memuat
gambaran mengenai jumlah subjek yang dianalisis berdasarkan
karakteristik mereka yang relevan (seperti jenis kelamin, usia, pendidikan,
dll). Deskripsi subjek kemudian diikuti oleh deskripsi data penelitian yang
memuat statistik deskriptif pada masing-masing variabel yang dianalisis, seperti
banyaknya subjek (n), mean (M), deviasi standar (s), varians (s2),
skor minimum (Xmin), dan skor maksimum (Xmaks). Dari
informasi deskriptif yang diperoleh tadi, kita dapat mengetahui keadaan subjek
pada aspek alau variabel yang diteliti.
Salah satu manfaat kita mengetahui itu adalah untuk
mengkategorikan subjek kita memiliki skor skala yang tinggi, sedang, atau
rendah. Oleh karena itu, tulisan kali ini akan memaparkan bagaimana cara
membuat kategorisasi skor subjek dari hasil pengukuran skala dengan SPSS.
Membuat kriteria
kategorisasi
Langkah pertama untuk kita membuat kategorisasi adalah
dengan menetapkan kriterianya terlebih dahulu. Ini juga tidak terlepas dari
berapa jumlah kategori yang akan kita buat, misalkan 3 kategori (rendah,
sedang, tinggi), atau 5 kategori (sangat rendah, rendah, sedang, tinggi, sangat
tinggi). Penentuan kategori ini dadasari atas asumsi bahwa skor populasi subjek
terdistribusi secara normal. Distribusi normal terbagi atas enam bagian atau
enam satuan deviasi standar, seperti pada gambar di bawah.
Untuk mengkategorikan hasil pengukuran menjadi tiga
kategori, pedoman yang bisa digunakan adalah:
Rendah
|
X < M – 1SD
|
Sedang
|
M – 1SD < X < M + 1SD
|
Tinggi
|
M + 1SD < X
|
Sedangkan jika ingin membuat lima kategori, pedoman yang
bisa digunakan adalah:
Sangat Rendah
|
X < M – 1,5SD
|
Rendah
|
M – 1,5SD < X < M – 0,5SD
|
Sedang
|
M – 0,5SD < X < M + 0,5SD
|
Tinggi
|
M + 0,5SD < X < M + 1,5SD
|
Sangat tinggi
|
M + 1,5SD < X
|
Keterangan:
M = Mean
SD = standar deviasi
*Panduan kategorisasi ini dapat dilihat di buku Azwar
(2012).
Sebenarnya tidak ada pedoman khusus tentang berapa jumlah
kategori yang ingin kita buat dan berapa batasan skor pada masing-masing
kategori. Pedoman di atas hanyalah pedoman yang dibuat oleh salah satu ahli
dalam bidang pengukuran. Meskipun demikian, peneliti bisa memodifikasi kreteria
yang dibuat sesuai dengan kebutuhannya, asalkan tetap logis dan proporsional.
Misalkan, saya punya contoh skala asertivitas model skala
likert dengan skala 1-5. Jumlah item dalam skala tersebut adalah 12. Saya ingin
menkategorikan subjek ke dalam 3 kelompok, yakni rendah, sedang, dan tinggi.
Dengan demikian, jika subjek menjawab nilai paling rendah semua, yakni 1, maka
skor yang mungkin didapatkan adalah 1x12 = 12 (Xmin). Sedangkan jika
subjek menjawab nilai paling tinggi semua, yakni 5, maka skor yang mungkin
didapatkan adalah 5x12 = 60 (Xmaks). Dengan demikian Range dari data
tersebut adalah 60-12 = 48. Karena kita tahu bahwa kurve normal terdiri atas 6
standar deviasi, maka tiap standar deviasi nilainya adalah 48/6=8. Kita juga
tahu bahwa dalam kurve normal, nilai mean selalu berada di tengah, dengan
demikian mean = (12+60) / 2 = 36.
Xmin = 12
Xmaks = 60
Range = Xmaks – Xmin
= 60-12 = 48
Mean = (Xmaks + Xmin)
/ 2
= (12+60) / 2 = 36
SD = Range / 6
= 48/6 = 8
Karena kita sudah mendapatkan nilai mean dan SD, maka
kita bisa membuat kriteria kategorisasi berdasarkan pedoman yang sudah ada.
Rendah
|
X < M – 1SD
X < 36 – 8
X < 28
|
Sedang
|
M – 1SD < X < M + 1SD
36 – 8 < X < 36 + 8
28 < X < 44
|
Tinggi
|
M + 1SD < X
36 + 8 < X
44 < X
|
Kita sudah mendapatkan kriteria penentuan kategorisasi,
selanjutnya kita tinggal mencocokkan dengan data kita. Jadi misalkan si A
mendapat skor 30, maka dia memiliki asertivitas yang sedang.
Menentukan
kategori di SPSS
Jika kita memiliki data yang sedikit, misal di bawah 30,
kita masih bisa dengan mudah mengkategorikan dengan manual satu per satu. Namun
jika subjek kita ratusan, alangkah lebih mudah kalau kita memanfaatkan software
seperti Excel atau SPSS. Kali ini saya akan menjelaskan prosedur menentukan
kategorisasi dengan SPSS.
Untuk mengkategorikan data, ikuti langkah berikut
1.
Klik Transform
– Recode into different variables
2.
Masukkan skor total
ke kotak di kanan
3.
Pada output variables, isi name dengan nama variabel baru kita, misal kat_asertivitas
4.
Klik old and new values
5.
Kita akan membuat kode untuk kategori rendah dahulu.
Misal kategori rendah kita kode 1, jadi pada new value kita isi value dengan 1. Karena dari kriteria kita tadi kelompok
rendah adalah yang memiliki X < 28, maka pada bagian old value kita pilih range,
LOWEST through value dan kita isi 27,5.
Kenapa 27,5, kenapa bukan 28 saja? Karena skor 28 sudah masuk kategori sedang,
sedangkan kategori rendah adalah di bawah 28. Jadi kita ambil batasnya adalah
27,5. Lalu kalau sudah klik add. Ini
akan mengubah semua nilai yang memiliki skor dibawah 27,5 menjadi kode 1.
6.
Kita lanjut membuat kode kategori sedang. Misal kategori sedang kita kode 2, jadi pada new value kita isi value dengan 2. Karena dari kriteria kita tadi kelompok sedang adalah yang
memiliki 28 < X < 44, maka pada bagian old value kita pilih range
dan isi kotak pertama dengan 28 dan kotak kedua dengan 43,5.
Kenapa batas atasnya 43,5, kenapa bukan 44 saja? Sama seperti langkah
sebelumnya, karena 44 sudah masuk kategori tinggi, sedangkan sedang adalah
dibawah 44. Lalu kalau sudah klik add.
Ini akan mengubah semua nilai yang memiliki skor 28 sd 43,5 menjadi kode 2.
7.
Kita lanjut membuat kode untuk kategori tinggi. Misal kategori tinggi kita kode 3, jadi pada new value kita isi value dengan 3. Karena dari kriteria kita tadi
kelompok tinggi adalah yang memiliki 44 < X, maka pada bagian old value kita pilih range, value through HIGHEST dan kita
isi 44. Lalu klik add. Ini akan
mengubah semua nilai yang memiliki skor 44 ke atas menjadi kode 3.
8.
Kalau sudah, klik continue
9.
Klik change,
lalu OK
Jika kita kembali ke data kita, kita akan menjumpai
variabel baru bernama kat_asertivitas. Variabel
itu tak lain adalah kategori skor subjek pada variabel asertivitas. angka 1
menunjukkan rendah, 2 menunjukkan sedang, dan 3 menunjukkan tinggi.
Untuk mengubah label kode, kita bisa klik tab variable view di kiri bawah, lalu kita
klik pada variabel kat_asertivitas, klik kotak pada kolom values, lalu kita beri values
labels. Value 1 label rendah, lalu
klik add. Value 2 label sedang, lalu klik add. Value 3 label tinggi, lalu klik
add. Jika sudah klik OK.
Sekarang kita sudah selesai mengkategorikan subjek ke
dalam kelompok rendah, sedang, atau tinggi asertivitasnya sesuai dengan skor
skala yang diperoleh.
Menghitung
frekuensi masing-masing kelompok
Untuk mengh itung berapa jumlah subjek yang memiliki
asertivitas rendah, sedang, dan tinggi, kita dapat memanfaatkan menu frequencies
di SPSS. Caranya adalah:
1. Klik Analyze – descriptive statistics – frequencies
2.
Masukkan variabel kat_asertivitas,
lalu klik OK
3.
Akan keluar output seperti gambar di bawah
Sampai disini kita sudah bisa mengetahui bahwa sebagian
besar subjek memiliki asertivitas yang tinggi (59,3%), dan hanya sedikit sekali
yang memiliki asertivitas rendah (2,8%).
Prosedur di atas adalah cara mengkategorisasikan data
berdasarkan pada statistik hipotetik.
Prosedur ini dijelaskan Prof. Azwar dalam bukunya Azwar (2012) dan di jurnal
Azwar (1993). Penggunaan statistika hipotetik menggunakan alat ukur sebagai
acuan. Penggunaan prosedur ini mensyaratkan alat ukur yang digunakan adalah
alat ukur yang sudah divalidasi. Selain penggunaan statistik hipotetik,
beberapa peneliti juga menggunakan statistik
empirik. Perbedaan keduanya akan dibahas pada artikel lain.
REFERENSI
Azwar, S. (1993). "Kelompok subjek ini memiliki
harga diri yang rendah"; kok, tahu...? Buletin
Psikologi, I(2), 13-17.
Azwar, S. (2012). Penyusunan
Skala Psikologi edisi 2. Yogyakarta: Pustaka Pelajar
Kritik Terhadap Metode Causal Steps Baron dan Kenny untuk Analisis Peran Mediasi
Hanif Akhtar
Secara umum, prosedur untuk analisis adanya efek mediasi suatu hubungan ditentukan dengan tiga cara, yakni dengan causal steps dari Baron dan Kenny (1986), dengan Sobel Test, dan dengan Bootstraping. Diantara ketiga itu, prosedur analisis mediator yang paling umum digunakan mahasiswa baik untuk level skripsi maupun tesis adalah prosedur estimasi yang didasarkan pada panduan Baron dan Kenny (1986), atau yang sering dikenal dengan sebutan Causal steps. Hal ini wajar, karena memang Baron dan Kenny adalah pionir yang pertama kali mencetuskan teknik untuk melihat adanya peran variabel mediator. Jurnal dari Baron dan Kenny sudah disitasi oleh ribuan peneliti dunia.
Meskipun demikian, tren terkini justru banyak yang mengkritik prosedur causal steps Baron dan Kenny, bahkan beberapa jurnal sudah tidak menerima lagi teknik analisis ini dimuat dalam artikel mereka. Tulisan ini akan merangkum beberapa kritik yang disampaikan peneliti dunia terhadap prosedur causal steps Baron dan Kenny, serta alternatif solusi yang digunakan untuk analisis variabel mediator.
Langkah-langkah dalam menguji hipotesis mengacu prosedur pengujian peran mediator yang dikemukakan Baron dan Kenny (1986) adalah sebagai berikut:
1. Membuat persamaan regresi pengetahuan (X) terhadap perilaku (Y). Analisis regresi ini akan menghasilkan jalur c yang diharapkan signifikan atau yang disebut efek total (total effect).
2. Membuat persamaan regresi pengetahuan (X) terhadap sikap (M). Analisis regresi ini akan menghasilkan jalur a yang diharapkan signifikan.
3. Membuat persamaan regresi pengetahuan (X) dan sikap (M) terhadap perilaku (Y). Analisis regresi ini akan menghasilkan dua nilai estimasi prediktor dari M dan X. Prediksi M terhadap Y kita menghasilkan jalur b, sedangkan prediksi X terhadap Y menghasilkan jalur c’. Jalur b diharapkan signifikan, sedangkan jalur c’ diharapkan tidak signifikan agar terjadi mediasi sempurna, atau jalur c’ signifikan tapi menurun effect sizenya untuk agar terjadi mediasi parsial. Jalur a*b ini disebut efek tidak langsung (indirect effect), sedangkan jalur c’ disebut efek langsung (direct effect).
Jika salah satu dari keempat jalur tersebut tidak sesuai dengan kriteria, maka peneliti tidak dapat menyebut adanya efek mediasi. Beberapa kritik kemudian muncul atas prosedur ini.
Pertama, perlu dicatat bahwa metode Baron dan Kenny tidak memberikan cara menguji bahwa efek tidak langsung (jalur a*b) telah terjadi. Baron dan Kenny hanya menyebutkan langkah-langkah kausal (yang sudah diuraikan sebelumnya), yang harus dipenuhi untuk memungkinkan mediasi terjadi. Baron dan Kenny justru merekomendasikan peneliti untuk menggunakan teknik analisis Sobel Test untuk menguji efek tidak langsung ini. Meskipun demikian, langkah ini sebenarnya bukan bagian dari causal steps Baron dan Kenny, dan hal ini sering diabaikan oleh para peneliti. Tren terkini juga banyak yang mengkritik penggunaan Sobel Test karena sangat tergantung pada distrubusi sampel yang normal.
Kedua, beberapa langkah yang dilakukan dalam causal steps Baron dan Kenny juga dirasa tidak penting dan kurang logis, karena dalam analisis peran mediator yang paling utama sebenarnya adalah ada atau tidaknya efek tidak langsung (indirect effect). Baron dan Kenny menetapkan bahwa X harus berperan signifikan terhadap Y dengan tidak adanya M (total effect), karena akan ada efek untuk memediasi. Meskipun hal nampak ini logis, namun tidak demikian. Misal: peneliti meregresikan X ke Y pada suatu kelompok sampel (misal laki-laki dan perempuan). Jika kedua kelompok sampel tersebut memiliki magnitude hubungan yang sama besar namun dengan arah yang berlawanan, maka ketika kedua kelompok tersebut dijadikan satu akan menjadikan hubungan X dan Y menjadi tidak signifikan. Dengan demikian jika mengacu pada kriteria Baron dan Kenny tidak ada efek mediasi. Padahal mediasi bisa terjadi meskipun tidak terdapat total effect X terhadap Y. Pada kasus yang lain, Baron dan Kenny menetapkan bahwa M harus berperan signifikan terhadap Y. Padahal, jika hubungan X dan Y sangat kuat dapat menyebabkan standar eror yang besar pada M, yang kemudian dapat menyebabkan perannya terhadap Y menjadi negatif.
Kritik yang paling utama adalah terkait pemisahan jenis mediasi dari Baron dan Kenny menjadi mediasi sempurna dan mediasi parsial. Isitilah mediasi sempurna menunjukkan bahwa dia telah mampu memperantarai keseluruhan total effect hubungan antara X dan Y. Namun pada kenyataannya, sering dijumpai banyak mediator sempurna dari suatu hubungan X dan Y. Lebih lanjut, dalam kasus dimana sebenarnya ada mediasi parsial, temuan mediasi sempurna mungkin hanyalah cerminan ketidakmampuan untuk mendeteksi efek langsung melalui kurangnya kekuatan statistik. Hasil ini sering dianggap benar, padahal jika sampel ditambah ada kemungkinan sebanarnya ada efek langsung, yang ini berarti terjadi mediasi parsial. Dalam hal ditemukan mediasi parsial juga sebenarnya agak tidak masuk akal. Semua variabel psikologis pada dasarnya dimediasi oleh sesuatu, sehingga terjadinya efek langsung yang signifikan hanyalah refleksi dari mispesifikasi model.
Lalu bagaimana alternatif solusi untuk analisis peran mediasi. Beberapa peneliti sudah berpindah ke teknik bootstraping untuk analisis peran mediasi. Selain bisa menguji efek tidak langsung, bootstraping juga lebih tahan atas ketidaknormalan data, seperti yang menjadi kelemahan Sobel Test. Teknik ini lebih diterima secara ilmiah, beberapa jurnal lebih menerima prosedur menggunakan bootstraping dibandingkan causal steps yang dirasa sudah outdated. Teknik analisis dengan bootsraping sendiri bisa dilakukan di SPSS dengan mengunduh plug PROCESS Hayes untuk SPSS yang memungkinkan seseorang untuk menghasilkan output untuk efek tidak langsung, termasuk interval kepercayaan dan effect sizenya. Tulisan sebelumnya tentang prosedur analisis mediator dengan causal steps dapat dilihat di sini, sementara tulisan tentang prosedur analsis mediator dengan bootstraping melalui PROCESS di SPSS dapat dilihat di sini.
Bahan bacaan:
Baron, R.M. & Kenny, D.A. 1986. The Moderator-Mediator Variable Distinction in Social Psychological Research: Conceptual, Strategic, and Statistical Considerations. Journal of personality and Social Psychology. 51 (6), 1173-1182
Field, A. (2013). Discovering statistics using IBM SPSS statistics. Sage.
Hayes, A. F. (2013). Introduction to mediation, moderation, and conditional process analysis. New York, NY: Guilford.
Zhao, X., Lynch, J.G., & Chen, Q. (2010). Reconsidering Baron and Kenny: Myths and Truths about Mediation Analysis. Journal of Consumer Research. 37(2), 197-206
Zhao, X., Lynch, J.G., & Chen, Q. (2010). Reconsidering Baron and Kenny: Myths and Truths about Mediation Analysis. Journal of Consumer Research. 37(2), 197-206
Subscribe to:
Posts (Atom)
Channel Youtube ini adalah cita-cita lama saya untuk memudahkan pembaca yang memiliki keterbatasan waktu untuk membaca penuh artikel atau pembaca yang kesulitan memahami bahasa tulis. Berhubung laptop saya adalah laptop tua yang bersuara keras jika digunakan untuk rekaman, ditambah lagi sering nge-hang jika digunakan untuk analisis data yang berat, maka proses rekaman menjadi terhambat. Cita-cita membuat channel Youtube akhirnya terealisasi berkat dukungan istri (laptop istri lebih tepatnya). Dikarenakan istri sekarang sudah berubah status menjadi full time mother, jadi laptopnya nganggur dan sayang kalau tidak diberdayakan. Jadilah laptop tersebut jadi modal bagi saya untuk rekaman dan membuat channel Youtube ini.
Dalam proses penyusunan skala, setelah skala dievaluasi oleh para pakar terkait revelansi item dan juga tata bahasanya, skala tersebut harus diujicobakan ke subjek dalam jumlah besar (lebih dari 30 orang). Uji coba ini dilakukan guna melihat reliabilitas skala dan juga daya diskriminasi (korelasi item-total) masing-masing item. Proses ini dapat dilakukan dengan bantuan software analisis data, salah satunya SPSS.
Koefien korelasi hanya mampu menggambarkan kuat lemahnya hubungan dua variabel, namun tidak mampu menjelaskan hubungan funsional variabel mana yang menjadi sebab dan variabel mana yang menjadi akibat. Analisis regresi mempelajari bentuk hubungan antara satu atau lebih variabel bebas (X) dengan satu variabel tergantung (Y). Oleh karena itu, secara umum dapat dikatakan analisis regresi merupakan kelanjutan dari analisis korelasi karena dapat menentukan daya prediksi perubahan variabel Y akibat perubahan variabel X. Untuk dapat melakukan analisis regresi, data kita minimal harus berada pada level interval dan terdistribusi normal. Untuk menguji asumsi normalitas, dapat dilihat di sini.
Korelasi dapat diartikan sebagai hubungan antar variabel. Jadi analisis korelasi pada prinsipnya adalah untuk melihat seberapa kuat hubungan antar variabel dan bagaimana arahnya. Kuat lemahnya hubungan dinyatakan dalam koefisien korelasi yang sering disingkat r. Sementara arah hubungan ditunjukkan dengan hubungan positif atau negatif. Jika dua variabel memiliki hubungan yang positif, maka semakin tinggi suatu variabel semakin tinggi pula variabel yang lain. Namun jika dua variabel memiliki hubungan yang negatif, maka semakin tinggi suatu variabel semakin rendah variabel yang lain. Dalam korelasi semua variabel memiliki kedudukan yang sama, dan tidak ada variabel yang mempengaruhi (independen) atau variabel yang dipengaruhi (dependen).
Analisi Kovarians (ANAKOVA) secara sederhana merupakan penggabungan antara Anova dengan analisis korelasi. Jika Anova hanya digunakan untuk membandingkan mean antar kelompok saja, maka dalam Anakova selain membandingkan mean antar kelompok juga menghitung korelasi dengan variabel lain. Kita membandingkan variabel tergantung (Y) ditinjau dari variabel bebas (X1) sekaligus menghubungkan variabel tersebut dengan variabel bebas lainnya (X2). Variabel X2 yang dipakai memprediksi inilah yang dinamakan dengan kovariabel.
Analisis Kruskall-Wallis digunakan dalam penelitian komparasi dengan membandingkan dua kelompok atau lebih yang independen. Kelompok yang independen maksudnya masing-masing kelompok berasal dari subjek yang berbeda. Misalkan kita ingin membandingkan kepercayaan diri antara orang Jawa, Sunda, dan Batak, maka teknik ini dapat digunakan. Teknik ini masuk dalam keluarga teknik analisis statistik non-parametrik, sehingga untuk melakukan analisis ini asumsi yang diperlukan tidak seketat statistik parametrik.
ANOVA digunakan dalam penelitian komparasi dengan membandingkan nilai dari dua kelompok atau lebih yang independen. Kelompok yang independen maksudnya masing-masing kelompok berasal dari subjek yang berbeda. Misalkan kita ingin membandingkan kepercayaan antara orang Jawa, Sunda, dan Batak, maka teknik ini dapat digunakan. Teknik ini masuk dalam keluarga teknik analisis statistik parametrik, sehingga untuk dapat dilakukan analisis harus dipenuhi beberapa asumsi. Salah satu asumsi yang berlaku bagi semua analisis statistik parametrik adalah asumsi normalitas. selain Untuk menguji asumsi normalitas caranya dapat dilihat di sini. Selain itu data harus berada pada level interval atau rasio. Asumsi lainnya khusus untuk teknik ini adalah homogenitas varians antar kelompok yang nanti akan dibahas dalam tulisan ini.
Berdasarkan jumlah faktornya (variabel independen), anova dapat dibedakan menjadi One-way Anova (satu variabel independen), Two-way Anova (dua variabel independen), dan Multi-way Anova (lebih dari dua variabel independen). Berdasarkan jumlah variabel dependennya, Anova dapat dibedakan menjadi anova univariat dan Anova multivariat. Tulisan ini akan menjelaskan cara analisis one-way Anova univariat.
Berdasarkan jumlah faktornya (variabel independen), anova dapat dibedakan menjadi One-way Anova (satu variabel independen), Two-way Anova (dua variabel independen), dan Multi-way Anova (lebih dari dua variabel independen). Berdasarkan jumlah variabel dependennya, Anova dapat dibedakan menjadi anova univariat dan Anova multivariat. Tulisan ini akan menjelaskan cara analisis one-way Anova univariat.
Wilcoxon Matched Pairs digunakan dalam penelitian komparasi dengan membandingkan nilai dari dua kelompok yang yang berkaitan. Kelompok yang berkaitan berarti data didapat dari dua kelompok dengan subjek yang sama namun dalam waktu pengetesan yang berbeda. Misalkan kita ingin membandingkan konsentrasi siswa sebelum dan sesudah makan siang, maka teknik ini dapat digunakan. Teknik ini masuk dalam keluarga teknik analisis statistik non-parametrik, sehingga sehingga untuk melakukan analisis ini asumsi yang diperlukan tidak seketat statistik parametrik.
Paired sample t-test digunakan dalam penelitian komparasi
dengan membandingkan nilai dari dua kelompok yang yang berkaitan. Kelompok yang
berkaitan berarti data didapat dari dua kelompok dengan subjek yang sama namun
dalam waktu pengetesan yang berbeda. Misalkan kita ingin membandingkan konsentrasi
siswa sebelum dan sesudah makan siang, maka teknik ini dapat digunakan. Teknik
ini masuk dalam keluarga teknik analisis statistik parametrik, sehingga untuk
dapat dilakukan analisis harus dipenuhi beberapa asumsi. Salah satu asumsi yang
berlaku bagi semua analisis statistik parametrik adalah asumsi normalitas.
Untuk menguji asumsi normalitas caranya dapat dilihat di sini.
Mann-Whitney U digunakan dalam penelitian komparasi dengan
membandingkan nilai dari dua kelompok yang berbeda. Kelompok yang berbeda
berarti data didapat dari dua kelompok dengan subjek yang berbeda. Misalkan
kita ingin membandingkan inteligensi antara laki-laki dan perempuan, maka
teknik ini dapat digunakan. Teknik ini masuk dalam keluarga teknik analisis
statistik non-parametrik, sehingga untuk melakukan analisis ini asumsi yang
diperlukan tidak seketat statistik parametrik.
Dalam penelitian komparasi, jika kita ingin membandingkan
nilai dari dua kelompok yang berbeda, maka teknik analisis yang dapat kita
gunakan adalah independent sample t-test. Kelompok yang berbeda berarti data
didapat dari dua kelompok dengan subjek yang berbeda. Misalkan kita ingin
membandingkan inteligensi antara laki-laki dan perempuan, maka teknik ini dapat
digunakan. Teknik ini masuk dalam keluarga teknik analisis statistik
parametrik, sehingga untuk dapat dilakukan analisis harus dipenuhi beberapa
asumsi. Salah satu asumsi yang berlaku bagi semua analisis statistik parametrik
adalah asumsi normalitas. Untuk menguji asumsi normalitas caranya dapat dilihat
di sini. Asumsi lainnya khusus untuk
teknik ini adalah homogenitas varians yang nanti akan dibahas dalam tulisan
ini.
Ketika kita hendak melakukan analisis statistik
parametrik, kita perlu melakukan verifikasi asumsi normalitas. Jadi sebelum
dilakukan analisis statistik, seperti analisis korelasi Pearson, regresi,
t-test, atau anova, terlebih dahulu data kita harus diuji apakah normal atau
tidak. Uji Normalitas dilakukan untuk memastikan data yang telah dikumpulkan
berdistribusi normal atau diambil dari populasi normal. Pada dasarnya distribusi
normal merupakan suatu distribusi yang menunjukkan sebaran data yang seimbang
yang sebagian besar data adalah mendekati nilai mean. Kalau digambarkan dengan
histrogram, akan menyerupai bentuk lonceng.
Dalam proses uji reliabilitas alat ukur, pendekatan
konsistensi internal dengan koefisien Alpha Cronbach menjadi koefisien
reliabilitas yang menjadi yang paling populer. Pendekatan ini cocok digunakan
untuk alat ukur yang sifatnya self
repport, sehingga reliabilitas dimaknai sebagai konsistensi jawaban dari
responden terhadap item-item dalam alat ukur. Pendekatan lain yang menggunakan
prinsip berbeda adalah reliabilitas antar rater. Pendekatan ini dipakai untuk
menilai kesepakatan antar rater dalam menilai suatu individu. Dengan demikian
reliabilitas tersebut melekat pada skor yang diberikan, bukan pada alat ukurnya.
Misalkan dalam suatu kompetisi lompat indah, dua juri menilai seberapa indah
lompatan atlet tersebut. Jika kedua juri tersebut memiliki penilaian yang hampir
sama, maka ada kesepakatan penilaian, yang berarti reliabilitasnya tinggi. Namun
sebaliknya, jika juri pertama menilai lompatannya sangat indah sedangkan juri
kedua menilai lompatannya biasa saja, maka tidak ada kesepakatan.
Salah satu kesalahan umum dalam proses adaptasi adalah bahwa adaptasi hanya dilakukan dengan menerjemahkan alat ukur dari bahasa asing ke bahasa Indonesia. Padahal jika dipelajari lebih dalam lagi, adaptasi bukan semata-mata menerjemahkan alat ukur, namun juga menyesuaikan apakah tes tersebut kontekstual dengan kondisi sosial budaya masyarakat tujuan. Adaptasi alat ukur meliputi aktivitas dari menentukan apakah alat ukur dapat mengukur konstruk yang sama dalam bahasa dan budaya yang berbeda, memilih penerjemah, memutuskan akomodasi yang sesuai, sampai mengecek kesetaraannya dalam bentuk yang diadaptasi (Hambleton, Merenda, & Spielberger 2005).
Dalam proses penyusunan alat tes, proses seleksi item menjadi bagian yang sangat krusial. Proses ini bertujuan untuk memilih item mana saja yang layak kita masukkan dalam alat tes kita. Dalam analisis dengan teori tes klasik, daya diskriminasi item menjadi salah satu paramater yang paling utama dalam seleksi item. Daya diskriminasi item menunjukkan seberapa baik item dalam membedakan individu mana yang memiliki kemampuan dan mana yang tidak. Dalam konteks tes kognitif, dimana jawaban soal hanya diskor benar dan salah (1/0), ada tiga jenis parameter diskriminasi item yang biasa digunakan, yakni indeks diskriminasi item, korelasi point-biserial, dan korelasi biserial. Diantara ketiganya, terkadang kita bingung mau menggunakan yang mana karena tidak terlalu memahami perbedaannya. Tulisan ini akan menjelaskan perbedaan ketiganya dan bagaimana penggunaannya.
Ketika kita menggunakan pendekatan kuantitatif dalam melakukan
sebuah penelitian, tentunya kita akan menggunakan alat ukur untuk mendapatkan
data yang dibutuhkan. Alat ukur berguna untuk menguantifikasikan variabel yang
ingin diukur. Seperti halnya jika kita ingin mengetahui tekanan darah, kita
bisa menggunakan tensimeter. Tentunya, tensimeter yang sudah dikalibrasi
sehingga menghasilkan nilai tekanan darah yang valid dan reliabel. Pengukuran
tekanan darah merupakan contoh pengukuran atribut fisik. Bagaimana jika kita
ingin mengukur atribut psikologis?
Dalam beberapa analisis statistik parametrik, seperti
korelasi pearson dan analisis regresi, salah satu asumsi yang mendasari
analisis adalah hubungan antar variabel membentuk pola (model) yang linear.
Model linear artinya pola hubungan kedua variabel independen dan dependen akan
membentuk satu garis lurus. Beberapa pendapat muncul terkait perlu tidaknya
kita menguji asumsi linearitas ini terlebuh dahulu sebelum melakukan uji
hipotesis. Pendapat ini wajar saja, karena memang uji hipotesis, dengan
korelasi pearson misalnya, mendasarkan hubungannya harus linear, jadi ketika
hasil korelasi signifikan, sudah dipastikan asumsi linearitas juga terpenuhi.
Jadi menguji asumsi linearitas di awal adalah sesuatu yang mubazir.
Dalam pengujian hipotesis, kita
sering langsung melihat pada nilai signifikansinya (p). Ketika nilai signifikansi
kurang dari 0,05 (p<0,05) maka hipotesis nihil ditolak dan hipotesis alternatif
diterima (Field, 2013). Panduan tersebut menjadi
dasar ketika membaca hasil pengujian hipotesis sehingga dengan mudah kita
menyimpulkan terdapat hubungan/perbedaan atau tidak terdapat
hubungan/perbedaan. Namun, kita tidak melihat apakah hipotesis tersebut diuji berdasar
1-tailed atau 2-tailed. Hal ini dikarenakan kita tidak sadar akan keberadaan
istilah tersebut dan tidak tahu fungsi dari adanya istilah tersebut.
Dalam kita mengkategorisasikan data, terkadang pertanyaan
yang sering muncul adalah, kita mau pakai statistik hipotetik atau empirik nih?
Dulu waktu skripsi, saya menggunakan statistik hipotetik karena dalam buku salah
satu profesor saya (Pak Azwar), untuk mengkategorikan subjek ke dalam kelompok tinggi,
sedang, dan rendah yang digunakan adalah statistik hipotetik. Namun kemudian
oleh dosen penguji prosedur saya ini dikatakan salah. “Untuk apa kita mengambil
data sampel, kalau kita mengkategorisasikannya memakai statistik hipotetik”,
begitu kata beliau. Saya yang saat itu masih polos diam saja dan mengiyakan saja
perkataan dosen penguji. Sekarang saya coba merefleksikan saran itu kembali
dan menuliskan pendapat saya
mengenai perbedaan keduanya di sini. Untuk cara kategorisasinya dapat dilihat di sini
Oiya, bagi yang belum tahu maksudnya statistik hipotetik dan empirik, jadi gambarannya begini. Statistik yang dimaksud di sini banyak merujuk ke mean dan standar deviasi (SD). Jadi statistik hipotetik adalah nilai mean dan SD yang mungkin diperoleh dari sejumlah item soal. Jadi kalau suatu tes dengan skala 0-4 memiliki 6 item, maka nilai terendah (Xmin) yang mungkin diperoleh adalah 0 dan nilai tertinggi yang mungkin diperoleh (Xmaks) adalah 24. Dengan demikian mean hipotetiknya adalah titik tengah 0 dan 24 yaitu 12. Sementara SD hipotetiknya adalah 24/6=4. Sementara statistik empirik adalah statistik yang diperoleh dari data sesungguhnya pada sampel kita. Bisa jadi nilai mean dan SD nya lebih tinggi, lebih rendah, atau sama dengan mean dan SD hipotetiknya.
Oiya, bagi yang belum tahu maksudnya statistik hipotetik dan empirik, jadi gambarannya begini. Statistik yang dimaksud di sini banyak merujuk ke mean dan standar deviasi (SD). Jadi statistik hipotetik adalah nilai mean dan SD yang mungkin diperoleh dari sejumlah item soal. Jadi kalau suatu tes dengan skala 0-4 memiliki 6 item, maka nilai terendah (Xmin) yang mungkin diperoleh adalah 0 dan nilai tertinggi yang mungkin diperoleh (Xmaks) adalah 24. Dengan demikian mean hipotetiknya adalah titik tengah 0 dan 24 yaitu 12. Sementara SD hipotetiknya adalah 24/6=4. Sementara statistik empirik adalah statistik yang diperoleh dari data sesungguhnya pada sampel kita. Bisa jadi nilai mean dan SD nya lebih tinggi, lebih rendah, atau sama dengan mean dan SD hipotetiknya.
Ilustrasi
Dalam suatu ujian matematika, dari 100 soal yang ada, Ali
berhasil menjawab soal 55 dengan benar. Pertanyaannya, bagaimanakah kategori
nilai Ali tersebut, apakah termasuk kelompok rendah, sedang, atau tinggi? Jika
dalam ujian itu hanya Ali saja yang diuji, tentulah kita tidak memiliki
pembanding, dengan demikian satu-satunya pembanding yang dapat digunakan adalah
alat tes tersebut. Karena nilai 55 hanya sedikit di atas mean (mean
hipotetik=50), maka bisa kita katakan nilai Ali tersebut sedang. Namun bagaimana
jika soal tersebut sebenarnya sangat sulit, dan mean dari nilai 100 siswa dalam
ujian matematika ini adalah 25? Tentu bisa kita katakan, nilai Ali ini masuk kategori
tinggi dalam kelompoknya. Kita juga bisa mengatakan, jika dengan melihat jumlah
soal, secara keseluruhan nilai matematika 100 siswa tersebut adalah rendah.
Jika digambarkan bentuk histogramnya kira-kira seperti
ini.
Kembali ke pengelompokan menggunakan statistik hipotetik
atau empirik. Penggunaan statistik empirik didasarkan pada kurve normal
distribusi skor suatu kelompok, dengan demikian kategorisasi dengan menggunakan
statistik empirik akan selalu menghasilkan pola kategori yang sesuai seperti
bentuk kurve normal, yakni yang masuk kategori sedang selalu lebih banyak
dibanding yang masuk kategori tinggi dan rendah. Sementara penggunaan statistik
hipotetik tidak selalu mengikuti kurve normal dari skor kelompok.
Sebagai gambaran, dari contoh di atas kalau digunakan
statistik empirik dan hipotetik, kurang lebih kategoriasinya akan seperti ini.
Hasil kategorisasi berdasarkan statistik empirik
Kelompok
|
Jumlah
|
Rendah
|
21 (21%)
|
Sedang
|
50 (50%)
|
Tinggi
|
19 (19%)
|
Hasil kategorisasi berdasarkan statistik hipotetik
Kelompok
|
Jumlah
|
Rendah
|
93 (93%)
|
Sedang
|
4 (4%)
|
Tinggi
|
1 (1%)
|
Dari dua contoh kategorisasi skor matematika di kelas
dengan menggunakan statistik empirik dan hipotetik di atas kita dapat lihat
bahwa, jika kita menggunakan statistik empirik, kategorisasi akan membentuk
distribusi normal, sedangkan pada statistik hipotetik tidak. Lalu apa beda
keduanya? Kembali lagi pada tujuan mengkategorisasikannya. Jika tujuannya
adalah melihat posisi relatif individu pada kelompoknya, maka yang digunakan
adalah statistik empirik. Jadi nilai Ali yang hanya 55 masuk kategori tinggi
dalam kelompok kelas itu. Namun jika tujuannya adalah melihat skor kelompok
secara umum, maka yang digunakan adalah statistik hipotetik.
Jadi secara umum, statistik empirik tepat jika digunakan
untuk interpretasi pada level individu, sedangkan statistik hipotetik cocok
untuk interpretasi kelompok. Menggunakan statistik empirik untuk interpretasi
kelompok tentu akan bias dan tidak memberikan banyak informasi, karena sudah
pasti secara umum subjek akan berada ada kategori sedang. Sementara menggunakan
statistik hipotetik untuk interpretasi individu juga tidak fair karena tidak
melihat nilai anggota kelompok yang lain.
Dalam interpretasi hasil pengukuran kita juga mengenal ada
dua pendekatan yang sering digunakan, yakni referensi berupa norma (norm referenced) dan referensi berupa
kriteria (criterion referenced). Penggunaan
referensi berupa norma berusaha untuk membedakan antara individu dalam
populasi, sementara refrensi berdasarkan kriteria berusaha membedakan penguasaan
individu berdasarkan kriteria yang ditentukan. Sebenarnya kedua hal ini juga
setara dengan penggunaan statistik empirik dan hipotetik. Statistik empirik
setara dengan pendekatan referensi berupa norma, sementara statistik hipotetik
setara dengan pendekatan referensi berupa kriteria.
Dampak dari penggunaan referensi berupa norma adalah
melibatkan sampel yang jumlahnya cukup besar, seperti yang digunakan dalam tes
inteligensi. Skor yang diperoleh seseorang akan dilihat posisi relatifnya
berdasarkan skor pada populasi. Contohnya adalah pada tes Inteligensi. Pada
tahap pembuatan alat tes akan dibuat norma yang digunakan untuk interpretasi
skor individu. Norma dibuat dengan mengambil sampel yang cukup banyak, karena
diharapkan norma ini akan mewakili populasi. (sebagai contoh norma tes WJ-IV
dibuat dari sampel sejumlah 7.000 orang).
Sementara penggunaan referensi menggunakan kriteria menghendaki
alat ukur yang sudah tervalidasi berulang kali. Kriteria yang ditetapkan bisa
disesuaikan dengan tujuan pengukuran. Misalnya, tes TOEFL digunakan untuk
seleksi beasiswa. Pantia menetapkan batas minimal tes TOEFL adalah 500, dengan
demikian interpretasi skor tersebut hanya berlaku pada individu tersebut tanpa
melihat skor kelompok.
Dari penejelasan di atas, dapat dirangkum perbedaan penggunaan
statistik empirik dan hipotetik sebagai berikut.
Statistik
empirik
|
Statistik
hipotetik
|
Digunakan untuk melihat posisi relatif individu
terhadap kelompok
|
Digunakan untuk melihat posisi relatif kelompok beasarkan
alat ukur
|
Interpretasi relatif terhadadap kelompok. Berbeda
kelompok akan menghasilkan kategori yang berbeda.
|
Interpretasi relatif terhadap alat ukur. Berbeda
tingkat kesulitan alat ukur (meskipun megukur variabel yang sama) dapat
menghasilkan kategori yang berbeda.
|
Menggunakan sampel yang besar
|
Menggunakan alat ukur yang sudah tervalidasi berulang
kali
|
Jadi memakai
statistik empirik atau hipotetik?
Secara mudah seperti ini saja
- Jika tujuan utama untuk melihat posisi relatif individu
dalam kelompok, maka gunakan statistik empirik. Jika tujuan utama untuk melihat
posisi relatif kelompok secara umum terhadap alat tes, gunakan statistik
hipotetik.
- Jika alat tes sudah memiliki norma yang disusun dari statistik
empirik sampel dalam jumlah banyak sebelumnya, gunakan statistik empirik. Misal,
tes inteligensi yang sudah dibuat normanya berdasarkan ribuan sampel sebelumnya,
gunakan kategorisasi dari statistik empirik alat tes inteligensi tersebut.
- Jika penelitian hanya dilakukan pada sampel yang sedikit,
atau hanya untuk menggambarkan data kita secara umum tanpa digunakan untuk
interpretasi lebih mendalam terhadap individu, gunakan statistik hipotetik.
Dalam laporan karya ilmiah, peneliti tidak hanya
melaporkan hasil dari uji hipotesisinya dengan statistik inferensial saja,
tetapi juga memberikan deskripsi dari data yang diperoleh. Hal ini dilakukan
untuk memberikan informasi bagi pembaca awam serta kedalaman dalam pembahasan.
Pada umumnya bagian deskriptif subjek memuat
gambaran mengenai jumlah subjek yang dianalisis berdasarkan
karakteristik mereka yang relevan (seperti jenis kelamin, usia, pendidikan,
dll). Deskripsi subjek kemudian diikuti oleh deskripsi data penelitian yang
memuat statistik deskriptif pada masing-masing variabel yang dianalisis, seperti
banyaknya subjek (n), mean (M), deviasi standar (s), varians (s2),
skor minimum (Xmin), dan skor maksimum (Xmaks). Dari
informasi deskriptif yang diperoleh tadi, kita dapat mengetahui keadaan subjek
pada aspek alau variabel yang diteliti.
Salah satu manfaat kita mengetahui itu adalah untuk
mengkategorikan subjek kita memiliki skor skala yang tinggi, sedang, atau
rendah. Oleh karena itu, tulisan kali ini akan memaparkan bagaimana cara
membuat kategorisasi skor subjek dari hasil pengukuran skala dengan SPSS.
Membuat kriteria
kategorisasi
Langkah pertama untuk kita membuat kategorisasi adalah
dengan menetapkan kriterianya terlebih dahulu. Ini juga tidak terlepas dari
berapa jumlah kategori yang akan kita buat, misalkan 3 kategori (rendah,
sedang, tinggi), atau 5 kategori (sangat rendah, rendah, sedang, tinggi, sangat
tinggi). Penentuan kategori ini dadasari atas asumsi bahwa skor populasi subjek
terdistribusi secara normal. Distribusi normal terbagi atas enam bagian atau
enam satuan deviasi standar, seperti pada gambar di bawah.
Untuk mengkategorikan hasil pengukuran menjadi tiga
kategori, pedoman yang bisa digunakan adalah:
Rendah
|
X < M – 1SD
|
Sedang
|
M – 1SD < X < M + 1SD
|
Tinggi
|
M + 1SD < X
|
Sedangkan jika ingin membuat lima kategori, pedoman yang
bisa digunakan adalah:
Sangat Rendah
|
X < M – 1,5SD
|
Rendah
|
M – 1,5SD < X < M – 0,5SD
|
Sedang
|
M – 0,5SD < X < M + 0,5SD
|
Tinggi
|
M + 0,5SD < X < M + 1,5SD
|
Sangat tinggi
|
M + 1,5SD < X
|
Keterangan:
M = Mean
SD = standar deviasi
*Panduan kategorisasi ini dapat dilihat di buku Azwar
(2012).
Sebenarnya tidak ada pedoman khusus tentang berapa jumlah
kategori yang ingin kita buat dan berapa batasan skor pada masing-masing
kategori. Pedoman di atas hanyalah pedoman yang dibuat oleh salah satu ahli
dalam bidang pengukuran. Meskipun demikian, peneliti bisa memodifikasi kreteria
yang dibuat sesuai dengan kebutuhannya, asalkan tetap logis dan proporsional.
Misalkan, saya punya contoh skala asertivitas model skala
likert dengan skala 1-5. Jumlah item dalam skala tersebut adalah 12. Saya ingin
menkategorikan subjek ke dalam 3 kelompok, yakni rendah, sedang, dan tinggi.
Dengan demikian, jika subjek menjawab nilai paling rendah semua, yakni 1, maka
skor yang mungkin didapatkan adalah 1x12 = 12 (Xmin). Sedangkan jika
subjek menjawab nilai paling tinggi semua, yakni 5, maka skor yang mungkin
didapatkan adalah 5x12 = 60 (Xmaks). Dengan demikian Range dari data
tersebut adalah 60-12 = 48. Karena kita tahu bahwa kurve normal terdiri atas 6
standar deviasi, maka tiap standar deviasi nilainya adalah 48/6=8. Kita juga
tahu bahwa dalam kurve normal, nilai mean selalu berada di tengah, dengan
demikian mean = (12+60) / 2 = 36.
Xmin = 12
Xmaks = 60
Range = Xmaks – Xmin
= 60-12 = 48
Mean = (Xmaks + Xmin)
/ 2
= (12+60) / 2 = 36
SD = Range / 6
= 48/6 = 8
Karena kita sudah mendapatkan nilai mean dan SD, maka
kita bisa membuat kriteria kategorisasi berdasarkan pedoman yang sudah ada.
Rendah
|
X < M – 1SD
X < 36 – 8
X < 28
|
Sedang
|
M – 1SD < X < M + 1SD
36 – 8 < X < 36 + 8
28 < X < 44
|
Tinggi
|
M + 1SD < X
36 + 8 < X
44 < X
|
Kita sudah mendapatkan kriteria penentuan kategorisasi,
selanjutnya kita tinggal mencocokkan dengan data kita. Jadi misalkan si A
mendapat skor 30, maka dia memiliki asertivitas yang sedang.
Menentukan
kategori di SPSS
Jika kita memiliki data yang sedikit, misal di bawah 30,
kita masih bisa dengan mudah mengkategorikan dengan manual satu per satu. Namun
jika subjek kita ratusan, alangkah lebih mudah kalau kita memanfaatkan software
seperti Excel atau SPSS. Kali ini saya akan menjelaskan prosedur menentukan
kategorisasi dengan SPSS.
Untuk mengkategorikan data, ikuti langkah berikut
1.
Klik Transform
– Recode into different variables
2.
Masukkan skor total
ke kotak di kanan
3.
Pada output variables, isi name dengan nama variabel baru kita, misal kat_asertivitas
4.
Klik old and new values
5.
Kita akan membuat kode untuk kategori rendah dahulu.
Misal kategori rendah kita kode 1, jadi pada new value kita isi value dengan 1. Karena dari kriteria kita tadi kelompok
rendah adalah yang memiliki X < 28, maka pada bagian old value kita pilih range,
LOWEST through value dan kita isi 27,5.
Kenapa 27,5, kenapa bukan 28 saja? Karena skor 28 sudah masuk kategori sedang,
sedangkan kategori rendah adalah di bawah 28. Jadi kita ambil batasnya adalah
27,5. Lalu kalau sudah klik add. Ini
akan mengubah semua nilai yang memiliki skor dibawah 27,5 menjadi kode 1.
6.
Kita lanjut membuat kode kategori sedang. Misal kategori sedang kita kode 2, jadi pada new value kita isi value dengan 2. Karena dari kriteria kita tadi kelompok sedang adalah yang
memiliki 28 < X < 44, maka pada bagian old value kita pilih range
dan isi kotak pertama dengan 28 dan kotak kedua dengan 43,5.
Kenapa batas atasnya 43,5, kenapa bukan 44 saja? Sama seperti langkah
sebelumnya, karena 44 sudah masuk kategori tinggi, sedangkan sedang adalah
dibawah 44. Lalu kalau sudah klik add.
Ini akan mengubah semua nilai yang memiliki skor 28 sd 43,5 menjadi kode 2.
7.
Kita lanjut membuat kode untuk kategori tinggi. Misal kategori tinggi kita kode 3, jadi pada new value kita isi value dengan 3. Karena dari kriteria kita tadi
kelompok tinggi adalah yang memiliki 44 < X, maka pada bagian old value kita pilih range, value through HIGHEST dan kita
isi 44. Lalu klik add. Ini akan
mengubah semua nilai yang memiliki skor 44 ke atas menjadi kode 3.
8.
Kalau sudah, klik continue
9.
Klik change,
lalu OK
Jika kita kembali ke data kita, kita akan menjumpai
variabel baru bernama kat_asertivitas. Variabel
itu tak lain adalah kategori skor subjek pada variabel asertivitas. angka 1
menunjukkan rendah, 2 menunjukkan sedang, dan 3 menunjukkan tinggi.
Untuk mengubah label kode, kita bisa klik tab variable view di kiri bawah, lalu kita
klik pada variabel kat_asertivitas, klik kotak pada kolom values, lalu kita beri values
labels. Value 1 label rendah, lalu
klik add. Value 2 label sedang, lalu klik add. Value 3 label tinggi, lalu klik
add. Jika sudah klik OK.
Sekarang kita sudah selesai mengkategorikan subjek ke
dalam kelompok rendah, sedang, atau tinggi asertivitasnya sesuai dengan skor
skala yang diperoleh.
Menghitung
frekuensi masing-masing kelompok
Untuk mengh itung berapa jumlah subjek yang memiliki
asertivitas rendah, sedang, dan tinggi, kita dapat memanfaatkan menu frequencies
di SPSS. Caranya adalah:
1. Klik Analyze – descriptive statistics – frequencies
2.
Masukkan variabel kat_asertivitas,
lalu klik OK
3.
Akan keluar output seperti gambar di bawah
Sampai disini kita sudah bisa mengetahui bahwa sebagian
besar subjek memiliki asertivitas yang tinggi (59,3%), dan hanya sedikit sekali
yang memiliki asertivitas rendah (2,8%).
Prosedur di atas adalah cara mengkategorisasikan data
berdasarkan pada statistik hipotetik.
Prosedur ini dijelaskan Prof. Azwar dalam bukunya Azwar (2012) dan di jurnal
Azwar (1993). Penggunaan statistika hipotetik menggunakan alat ukur sebagai
acuan. Penggunaan prosedur ini mensyaratkan alat ukur yang digunakan adalah
alat ukur yang sudah divalidasi. Selain penggunaan statistik hipotetik,
beberapa peneliti juga menggunakan statistik
empirik. Perbedaan keduanya akan dibahas pada artikel lain.
REFERENSI
Azwar, S. (1993). "Kelompok subjek ini memiliki
harga diri yang rendah"; kok, tahu...? Buletin
Psikologi, I(2), 13-17.
Azwar, S. (2012). Penyusunan
Skala Psikologi edisi 2. Yogyakarta: Pustaka Pelajar
Secara umum, prosedur untuk analisis adanya efek mediasi suatu hubungan ditentukan dengan tiga cara, yakni dengan causal steps dari Baron dan Kenny (1986), dengan Sobel Test, dan dengan Bootstraping. Diantara ketiga itu, prosedur analisis mediator yang paling umum digunakan mahasiswa baik untuk level skripsi maupun tesis adalah prosedur estimasi yang didasarkan pada panduan Baron dan Kenny (1986), atau yang sering dikenal dengan sebutan Causal steps. Hal ini wajar, karena memang Baron dan Kenny adalah pionir yang pertama kali mencetuskan teknik untuk melihat adanya peran variabel mediator. Jurnal dari Baron dan Kenny sudah disitasi oleh ribuan peneliti dunia.
Meskipun demikian, tren terkini justru banyak yang mengkritik prosedur causal steps Baron dan Kenny, bahkan beberapa jurnal sudah tidak menerima lagi teknik analisis ini dimuat dalam artikel mereka. Tulisan ini akan merangkum beberapa kritik yang disampaikan peneliti dunia terhadap prosedur causal steps Baron dan Kenny, serta alternatif solusi yang digunakan untuk analisis variabel mediator.
Langkah-langkah dalam menguji hipotesis mengacu prosedur pengujian peran mediator yang dikemukakan Baron dan Kenny (1986) adalah sebagai berikut:
1. Membuat persamaan regresi pengetahuan (X) terhadap perilaku (Y). Analisis regresi ini akan menghasilkan jalur c yang diharapkan signifikan atau yang disebut efek total (total effect).
2. Membuat persamaan regresi pengetahuan (X) terhadap sikap (M). Analisis regresi ini akan menghasilkan jalur a yang diharapkan signifikan.
3. Membuat persamaan regresi pengetahuan (X) dan sikap (M) terhadap perilaku (Y). Analisis regresi ini akan menghasilkan dua nilai estimasi prediktor dari M dan X. Prediksi M terhadap Y kita menghasilkan jalur b, sedangkan prediksi X terhadap Y menghasilkan jalur c’. Jalur b diharapkan signifikan, sedangkan jalur c’ diharapkan tidak signifikan agar terjadi mediasi sempurna, atau jalur c’ signifikan tapi menurun effect sizenya untuk agar terjadi mediasi parsial. Jalur a*b ini disebut efek tidak langsung (indirect effect), sedangkan jalur c’ disebut efek langsung (direct effect).
Jika salah satu dari keempat jalur tersebut tidak sesuai dengan kriteria, maka peneliti tidak dapat menyebut adanya efek mediasi. Beberapa kritik kemudian muncul atas prosedur ini.
Pertama, perlu dicatat bahwa metode Baron dan Kenny tidak memberikan cara menguji bahwa efek tidak langsung (jalur a*b) telah terjadi. Baron dan Kenny hanya menyebutkan langkah-langkah kausal (yang sudah diuraikan sebelumnya), yang harus dipenuhi untuk memungkinkan mediasi terjadi. Baron dan Kenny justru merekomendasikan peneliti untuk menggunakan teknik analisis Sobel Test untuk menguji efek tidak langsung ini. Meskipun demikian, langkah ini sebenarnya bukan bagian dari causal steps Baron dan Kenny, dan hal ini sering diabaikan oleh para peneliti. Tren terkini juga banyak yang mengkritik penggunaan Sobel Test karena sangat tergantung pada distrubusi sampel yang normal.
Kedua, beberapa langkah yang dilakukan dalam causal steps Baron dan Kenny juga dirasa tidak penting dan kurang logis, karena dalam analisis peran mediator yang paling utama sebenarnya adalah ada atau tidaknya efek tidak langsung (indirect effect). Baron dan Kenny menetapkan bahwa X harus berperan signifikan terhadap Y dengan tidak adanya M (total effect), karena akan ada efek untuk memediasi. Meskipun hal nampak ini logis, namun tidak demikian. Misal: peneliti meregresikan X ke Y pada suatu kelompok sampel (misal laki-laki dan perempuan). Jika kedua kelompok sampel tersebut memiliki magnitude hubungan yang sama besar namun dengan arah yang berlawanan, maka ketika kedua kelompok tersebut dijadikan satu akan menjadikan hubungan X dan Y menjadi tidak signifikan. Dengan demikian jika mengacu pada kriteria Baron dan Kenny tidak ada efek mediasi. Padahal mediasi bisa terjadi meskipun tidak terdapat total effect X terhadap Y. Pada kasus yang lain, Baron dan Kenny menetapkan bahwa M harus berperan signifikan terhadap Y. Padahal, jika hubungan X dan Y sangat kuat dapat menyebabkan standar eror yang besar pada M, yang kemudian dapat menyebabkan perannya terhadap Y menjadi negatif.
Kritik yang paling utama adalah terkait pemisahan jenis mediasi dari Baron dan Kenny menjadi mediasi sempurna dan mediasi parsial. Isitilah mediasi sempurna menunjukkan bahwa dia telah mampu memperantarai keseluruhan total effect hubungan antara X dan Y. Namun pada kenyataannya, sering dijumpai banyak mediator sempurna dari suatu hubungan X dan Y. Lebih lanjut, dalam kasus dimana sebenarnya ada mediasi parsial, temuan mediasi sempurna mungkin hanyalah cerminan ketidakmampuan untuk mendeteksi efek langsung melalui kurangnya kekuatan statistik. Hasil ini sering dianggap benar, padahal jika sampel ditambah ada kemungkinan sebanarnya ada efek langsung, yang ini berarti terjadi mediasi parsial. Dalam hal ditemukan mediasi parsial juga sebenarnya agak tidak masuk akal. Semua variabel psikologis pada dasarnya dimediasi oleh sesuatu, sehingga terjadinya efek langsung yang signifikan hanyalah refleksi dari mispesifikasi model.
Lalu bagaimana alternatif solusi untuk analisis peran mediasi. Beberapa peneliti sudah berpindah ke teknik bootstraping untuk analisis peran mediasi. Selain bisa menguji efek tidak langsung, bootstraping juga lebih tahan atas ketidaknormalan data, seperti yang menjadi kelemahan Sobel Test. Teknik ini lebih diterima secara ilmiah, beberapa jurnal lebih menerima prosedur menggunakan bootstraping dibandingkan causal steps yang dirasa sudah outdated. Teknik analisis dengan bootsraping sendiri bisa dilakukan di SPSS dengan mengunduh plug PROCESS Hayes untuk SPSS yang memungkinkan seseorang untuk menghasilkan output untuk efek tidak langsung, termasuk interval kepercayaan dan effect sizenya. Tulisan sebelumnya tentang prosedur analisis mediator dengan causal steps dapat dilihat di sini, sementara tulisan tentang prosedur analsis mediator dengan bootstraping melalui PROCESS di SPSS dapat dilihat di sini.
Bahan bacaan:
Baron, R.M. & Kenny, D.A. 1986. The Moderator-Mediator Variable Distinction in Social Psychological Research: Conceptual, Strategic, and Statistical Considerations. Journal of personality and Social Psychology. 51 (6), 1173-1182
Field, A. (2013). Discovering statistics using IBM SPSS statistics. Sage.
Hayes, A. F. (2013). Introduction to mediation, moderation, and conditional process analysis. New York, NY: Guilford.
Zhao, X., Lynch, J.G., & Chen, Q. (2010). Reconsidering Baron and Kenny: Myths and Truths about Mediation Analysis. Journal of Consumer Research. 37(2), 197-206
Zhao, X., Lynch, J.G., & Chen, Q. (2010). Reconsidering Baron and Kenny: Myths and Truths about Mediation Analysis. Journal of Consumer Research. 37(2), 197-206
Subscribe to:
Posts
(
Atom
)