Multiple Linear Regression คืออะไร? วิธีการวิเคราะห์ Multiple Regression ใน SPSS [คู่มือฉบับสมบูรณ์]

By Leonard Cucosth
สถิติSPSSวิธีวิจัย

Multiple Linear Regression เป็นหนึ่งในเทคนิคทางสถิติที่ทรงพลังที่สุดสำหรับการวิเคราะห์ความสัมพันธ์ระหว่างตัวแปรอิสระหลายตัวและตัวแปรตามเพียงตัวเดียว ในคู่มือฉบับสมบูรณ์นี้ คุณจะได้เรียนรู้วิธีการรัน Multiple Regression ใน SPSS การตีความผลลัพธ์ และเข้าใจทุกองค์ประกอบของผลการวิเคราะห์

ไม่ว่าคุณจะกำลังศึกษาประสิทธิผลการตลาด ทำนายผลการเรียน หรือวิเคราะห์ความสัมพันธ์ใดๆ ที่มีตัวทำนายหลายตัว บทเรียนนี้ครอบคลุมทุกอย่างตั้งแต่การเตรียมข้อมูลไปจนถึงการตีความผลลัพธ์ เราจะให้ชุดข้อมูล SPSS สำหรับการวิเคราะห์ Multiple Linear Regression เพื่อให้คุณสามารถปฏิบัติตามทีละขั้นตอน

การวิเคราะห์ Multiple Regression ใน SPSS นั้นไม่ยุ่งยาก หากคุณรู้วิธีการคำนวณ Simple Linear Regression ใน SPSS คุณจะพบว่ากระบวนการนั้นเกือบจะเหมือนกัน ความแตกต่างหลักคือการตีความผลลัพธ์ที่มีตัวทำนายหลายตัว และเราจะครอบคลุมทุกพารามิเตอร์โดยละเอียด

Multiple Linear Regression คืออะไร? พร้อมตัวอย่าง

ด้วย Simple Linear Regression เราวิเคราะห์ความสัมพันธ์เชิงสาเหตุระหว่างตัวแปรอิสระเพียงตัวเดียวกับตัวแปรตาม กล่าวอีกนัยหนึ่ง เรามุ่งหมายที่จะดูว่าตัวแปรอิสระ (ตัวทำนาย) มีผลกระทบที่มีนัยสำคัญต่อตัวแปรตาม (ผลลัพธ์) หรือไม่ แต่เราจะวิเคราะห์ Regression อย่างไรเมื่อโมเดลมีตัวแปรอิสระหลายตัว?

นี่คือที่มาของการวิเคราะห์ Multiple Linear Regression

ใน Multiple Linear Regression เราทดสอบผลกระทบของตัวทำนายตั้งแต่สองตัวขึ้นไปต่อตัวแปรผลลัพธ์ จึงเรียกว่า Multiple Linear Regression

แผนภาพแนวคิดแสดงตัวแปรอิสระหลายตัวชี้ไปยังตัวแปรตามเพียงตัวเดียว Multiple Linear Regression วิเคราะห์ความสัมพันธ์ระหว่างตัวทำนายหลายตัวและผลลัพธ์เพียงตัวเดียว

ในแง่ของการวิเคราะห์ ทั้ง Simple และ Multiple Linear Regression มีเป้าหมายที่เหมือนกัน: ค้นหาว่ามีนัยสำคัญ (P-value) ระหว่างตัวทำนายหลายตัวกับผลลัพธ์หรือไม่ หาก P-value เท่ากับหรือน้อยกว่า 0.05 (P ≤ 0.05) ความสัมพันธ์ระหว่างตัวทำนาย-ผลลัพธ์จะมีนัยสำคัญ

มาดูตัวอย่างของ Multiple Linear Regression กัน สมมติว่าเราต้องการศึกษาความสัมพันธ์ระหว่างความพยายามทางการตลาดกับความตั้งใจซื้อของผู้บริโภคของบริษัท ในกรณีนี้ ตัวแปรทำนายคือความพยายามทางการตลาด และผลลัพธ์คือความตั้งใจซื้อ

"ความพยายามทางการตลาด" เป็นคำที่กว้างมาก และมีปัจจัยหลายอย่างที่สามารถมีส่วนสนับสนุน ไม่มีประโยชน์ที่จะศึกษาความพยายามทางการตลาดโดยรวมหากเราไม่สามารถระบุได้ว่าปัจจัยใดสำคัญกว่าปัจจัยอื่น ใช่ไหม?

มาแบ่งความพยายามทางการตลาดออกเป็นตัวแปรอิสระหลายตัว (X) เช่น Content Marketing (X1), Social Media Marketing (X2) และ Email Marketing (X3) นี่คือลักษณะของกรอบแนวคิดสำหรับตัวอย่างนี้:

กรอบแนวคิดแสดง Content Marketing, Social Media Marketing และ Email Marketing เป็นตัวทำนายของความตั้งใจซื้อของผู้บริโภค ตัวอย่างกรอบแนวคิด: ความพยายามทางการตลาดแบ่งออกเป็นสามตัวทำนาย

ตอนนี้เราได้กรอบแนวคิดแล้ว มาเริ่มวิเคราะห์ Multiple Regression ใน SPSS โดยใช้ตัวอย่างที่เราพูดถึงข้างต้นกัน

วิธีการคำนวณ Multiple Linear Regression ใน SPSS

การคำนวณ Multiple Linear Regression ใน SPSS นั้นคล้ายกับการทำ Simple Linear Regression ใน SPSS มาก หากคุณต้องการทำตาม ดาวน์โหลดชุดข้อมูล SPSS จากส่วน ดาวน์โหลด ด้านบน

ชุดข้อมูล SPSS ตัวอย่างมี 30 ตัวอย่าง โดย Content, SocialMedia, Email เป็นตัวแปรอิสระ (ตัวทำนาย) และ Consumer_Intention เป็นตัวแปรตาม (ผลลัพธ์) หลังจากดาวน์โหลด ให้แตกไฟล์ zip และดับเบิลคลิกไฟล์ที่มีนามสกุล .sav เพื่อนำเข้าชุดข้อมูลใน SPSS

มุมมอง Data View ของ SPSS แสดงชุดข้อมูลที่มีคอลัมน์ Content, SocialMedia, Email และ Consumer_Intention ชุดข้อมูลตัวอย่างที่มีสามตัวทำนายและตัวแปรผลลัพธ์เพียงตัวเดียว

ต่อไป มาเรียนรู้วิธีการคำนวณ Multiple Linear Regression ใน SPSS สำหรับตัวอย่างนี้

ขั้นตอนที่ 1: ในเมนูด้านบนของ SPSS ไปที่ Analyze → Regression → Linear

เมนู SPSS แสดงการไปที่ Analyze → Regression → Linear การนำทางไปยัง Analyze → Regression → Linear ใน SPSS

ขั้นตอนที่ 2: ในหน้าต่าง Linear Regression ใช้ปุ่มลูกศรเพื่อย้ายตัวแปรผลลัพธ์ Consumer_Intention ไปยังช่อง Dependent ทำเช่นเดียวกันกับตัวแปรทำนาย Email, Content และ SocialMedia เพื่อย้ายไปยังช่อง Independent(s)

ตรวจสอบให้แน่ใจว่าวิธี Linear Regression ถูกตั้งค่าเป็น Enter

หน้าต่าง Linear Regression ของ SPSS แสดงการเลือกตัวแปรโดย Consumer_Intention เป็น Dependent และตัวทำนายสามตัวเป็น Independent การเลือกตัวแปรตามและตัวแปรอิสระในหน้าต่าง Linear Regression

ขั้นตอนที่ 3: คลิกปุ่ม OK เพื่อคำนวณ Multiple Linear Regression ใน SPSS หน้าต่างใหม่ที่มีผลลัพธ์ Multiple Linear Regression จะปรากฏขึ้น

การตีความผลลัพธ์ Multiple Linear Regression ใน SPSS

ตอนนี้เราได้ผลลัพธ์ Multiple Linear Regression ใน SPSS แล้ว มาดูวิธีการตีความผลลัพธ์กัน โดยค่าเริ่มต้น SPSS จะแสดงสี่ตารางในผลลัพธ์ Regression:

  • Variables Entered/Removed
  • Model Summary
  • ANOVA
  • Coefficients

มาดูแต่ละตารางและเข้าใจว่าคำศัพท์และค่าเหล่านั้นหมายถึงอะไร

ตาราง Variables Entered/Removed

ตารางนี้ประกอบด้วยสรุปการวิเคราะห์ของ Multiple Linear Regression ใน SPSS ได้แก่ โมเดล Regression ที่ใช้ ตัวแปรอิสระและตัวแปรตามที่ป้อนในการวิเคราะห์ รวมถึงวิธี Regression

ในบางกรณี SPSS จะเลือกลบตัวแปรออกจากโมเดลหากพบว่าทำให้เกิดปัญหา Multicollinearity ในการวิเคราะห์ Regression นี้ ไม่มีตัวแปรใดถูกลบออก ดังนั้นเราสามารถสรุปได้ว่าไม่มีตัวแปรใดที่ขึ้นอยู่กับตัวแปรอื่นอย่างเป็นเชิงเส้น

ตาราง Variables Entered/Removed ของ SPSS แสดงตัวทำนายทั้งสามถูกป้อนและไม่มีตัวแปรถูกลบออก ตาราง Variables Entered/Removed แสดงสรุปโมเดล

ตาราง Model Summary

ตาราง Model Summary ให้สถิติสำคัญเกี่ยวกับว่าโมเดล Regression เหมาะสมกับข้อมูลมากน้อยเพียงใด ตารางนี้รวมถึงการวัดสามตัวที่สำคัญ: R, และ Adjusted R²

R (Multiple Correlation Coefficient) แทนความสัมพันธ์ระหว่างค่าที่สังเกตและค่าที่ทำนายของตัวแปรตาม มีค่าตั้งแต่ 0 ถึง 1 โดยค่าที่สูงขึ้นบ่งชี้การทำนายที่ดีขึ้น ในตัวอย่างของเรา R บ่งชี้ความแข็งแกร่งของความสัมพันธ์ระหว่างตัวทำนายทั้งสามรวมกันกับ Consumer_Intention

R² (Coefficient of Determination) บอกเราถึงสัดส่วนของความแปรปรวนในตัวแปรตามที่อธิบายได้โดยตัวแปรอิสระ คำนวณเป็น:

R2=SSRSST=Regression Sum of SquaresTotal Sum of SquaresR^2 = \frac{SSR}{SST} = \frac{\text{Regression Sum of Squares}}{\text{Total Sum of Squares}}

ในกรณีของเรา:

R2=2.9526.667=0.443 หรือ 44.3%R^2 = \frac{2.952}{6.667} = 0.443 \text{ หรือ } 44.3\%

ซึ่งหมายความว่าตัวทำนายทั้งสามของเรา (Email, Content, SocialMedia) อธิบายความแปรผัน 44.3% ใน Consumer_Intention ส่วนที่เหลือ 55.7% เป็นความแปรปรวนที่ไม่สามารถอธิบายได้

Adjusted R² ปรับแก้ R² เพื่อคำนึงถึงจำนวนตัวทำนายในโมเดล มันแม่นยำกว่าสำหรับการเปรียบเทียบโมเดลที่มีจำนวนตัวทำนายที่แตกต่างกัน เพราะมันลงโทษการเพิ่มตัวแปรที่ไม่จำเป็น สูตรคือ:

Adjusted R2=1(1R2)(n1)nk1\text{Adjusted } R^2 = 1 - \frac{(1-R^2)(n-1)}{n-k-1}

โดยที่:

  • n = ขนาดตัวอย่าง (30 ในกรณีของเรา)
  • k = จำนวนตัวทำนาย (3 ในกรณีของเรา)

Adjusted R² จะต่ำกว่า R² เสมอ โดยเฉพาะอย่างยิ่งกับขนาดตัวอย่างที่เล็กหรือตัวทำนายที่มากกว่า เมื่อเปรียบเทียบโมเดล ให้เลือกโมเดลที่มี Adjusted R² สูงกว่า

ตาราง ANOVA

ตาราง ANOVA ใน Multiple Regression ทดสอบว่าโมเดล Regression โดยรวมอธิบายความแปรปรวนในตัวแปรตามอย่างมีนัยสำคัญหรือไม่ มันเปรียบเทียบความแปรปรวนที่อธิบายโดยโมเดล (Regression) กับความแปรปรวนที่ไม่สามารถอธิบายได้ (Residual) หากโมเดลอธิบายความแปรปรวนมากกว่าความคลาดเคลื่อนอย่างมีนัยสำคัญ การทดสอบ F จะมีนัยสำคัญ

ตาราง ANOVA ของ SPSS แสดง Sum of Squares, df, Mean Square, F และค่า Sig. ตาราง ANOVA แสดงสถิติความเหมาะสมของโมเดล Regression

มาเริ่มต้นด้วยคอลัมน์ Sum of Squares ใน ANOVA Regression Sum of Squares (SSR) แสดงจำนวนความแปรผันในตัวแปรตามที่อธิบายได้โดยตัวแปรอิสระ ในกรณีของเรา โมเดล Regression อธิบายความแปรผัน 2.952 หน่วย ค่า Regression SS ที่สูงขึ้นบ่งชี้ว่าโมเดลอธิบายความแปรปรวนในผลลัพธ์ได้มากขึ้น ซึ่งเป็นสิ่งที่ต้องการ

Residual Sum of Squares (SSE) วัดความแปรผันที่ไม่สามารถอธิบายได้หรือความคลาดเคลื่อนในโมเดล ในกรณีของเรา Residual Sum of Squares คือ 3.715 ค่า Residual ที่ต่ำกว่าจะดีกว่า เพราะบ่งชี้ความแปรปรวนที่ไม่สามารถอธิบายได้น้อยกว่า Residual ที่เป็นศูนย์จะหมายถึงการทำนายที่สมบูรณ์แบบ

Total Sum of Squares คำนวณโดยบวก Regression Sum of Squares และ Residual Sum of Squares ซึ่งเท่ากับ 6.667 ในกรณีของเรา

ต่อไป มาดูคอลัมน์ Degree of Freedom (df) ใน ANOVA

Regression df เท่ากับจำนวนตัวแปรทำนายในโมเดล (k) ในกรณีของเรา มีตัวทำนาย 3 ตัว (Email, Content, SocialMedia) ดังนั้น Regression df = 3

Residual df คำนวณเป็น: n - k - 1 โดยที่ n คือขนาดตัวอย่าง k คือจำนวนตัวทำนาย และ 1 คำนึงถึง Intercept ด้วยตัวอย่าง 30 ตัวและตัวทำนาย 3 ตัว:

3031=2630 - 3 - 1 = 26

Total df เท่ากับ n - 1 (ขนาดตัวอย่างลบหนึ่ง) ซึ่งเท่ากับ 29 ในตัวอย่างของเรา

Regression Mean Square คำนวณโดยการหาร Regression Sum of Squares ด้วย Regression Degree of Freedom ซึ่งเท่ากับ 0.984 ในตัวอย่างของเรา Residual Mean Square คำนวณในลักษณะเดียวกัน โดยการหาร Residual Sum of Squares ด้วย Residual Degree of Freedom ซึ่งเท่ากับ 0.143 ในกรณีของเรา

คอลัมน์ F ใน ANOVA แทนสถิติ F ซึ่งอาจเป็นปริมาณที่สำคัญที่สุดในการทดสอบ ANOVA สถิติ F เท่ากับอัตราส่วนระหว่าง Regression Mean Square และ Residual Mean Square และใช้ในการคำนวณ P-value ในตัวอย่างของเรา สถิติ F เท่ากับ 6.887

สุดท้าย คอลัมน์ Sig. ใน ANOVA (P-value) บอกเราว่าความแตกต่างระหว่างกลุ่มในโมเดล Regression มีนัยสำคัญหรือไม่ เนื่องจากในกรณีของเรา P เท่ากับ 0.001 ซึ่ง ≤ 0.05 ความแตกต่างระหว่างกลุ่ม Content, SocialMedia และ Email จึงมีนัยสำคัญทางสถิติ

ตาราง Coefficients

ตารางสุดท้ายในผลลัพธ์ Regression คือตาราง Coefficients ที่นี่เราสามารถหารายละเอียดเกี่ยวกับ Unstandardized Coefficient Beta และ Standard Error, Standardized Coefficient Beta, ค่า t และ P-value ของตัวทำนายในโมเดลของเรา

ตาราง Coefficients ของ SPSS แสดงค่า Beta, Standard Error, t statistics และระดับนัยสำคัญสำหรับแต่ละตัวทำนาย ตาราง Coefficients แสดงนัยสำคัญทางสถิติของแต่ละตัวทำนาย

Unstandardized Coefficient Beta วัดความแปรผันในตัวแปรผลลัพธ์สำหรับหนึ่งหน่วยของการเปลี่ยนแปลงในตัวแปรทำนาย โดยค่าดิบแสดงในสเกลเดิม

Standard Error ของการประมาณค่าวัดระยะทางเฉลี่ยของจุดข้อมูลที่สังเกตได้จากเส้น Regression ค่า Standard Error ที่ใหญ่บ่งชี้ว่าค่าเฉลี่ยตัวอย่างกระจายอย่างกว้างขวางรอบค่าเฉลี่ยประชากร ค่า Standard Error ที่ต่ำบ่งชี้ว่าค่าเฉลี่ยของตัวอย่างและค่าเฉลี่ยของประชากรมีความสัมพันธ์อย่างใกล้ชิด ซึ่งเป็นสิ่งที่ดี

Standardized Coefficients Beta (เรียกอีกอย่างว่า Beta Weights) วัดผลกระทบของแต่ละตัวทำนายเมื่อตัวแปรทั้งหมดถูกทำให้เป็นมาตรฐานให้มีค่าเฉลี่ย 0 และส่วนเบี่ยงเบนมาตรฐาน 1 สิ่งนี้ช่วยให้คุณเปรียบเทียบความสำคัญสัมพัทธ์ของตัวทำนายที่วัดในสเกลที่แตกต่างกัน Standardized Beta ที่มีค่าสัมบูรณ์ใหญ่กว่าบ่งชี้ผลกระทบที่แข็งแกร่งกว่า

คอลัมน์ t statistics แสดงการวัดของส่วนเบี่ยงเบนมาตรฐานของค่าสัมประสิทธิ์ และคำนวณโดยการหารค่าสัมประสิทธิ์ Beta ด้วย Standard Error โดยทั่วไป ค่าที่มากกว่า +2 หรือ -2 ถือว่ายอมรับได้

สุดท้าย คอลัมน์ Sig. (P-value) ในค่าสัมประสิทธิ์ Regression แสดงนัยสำคัญทางสถิติสำหรับแต่ละตัวทำนายต่อตัวแปรผลลัพธ์ โดย P-value ≤ 0.05 ถือว่ายอมรับได้

ในตัวอย่างของเรา เราสามารถสังเกตได้ว่าตัวแปรทำนาย Email มีผลต่อตัวแปรผลลัพธ์ Consumer_Intention (P = 0.043, < 0.05) ดังนั้นความสัมพันธ์จึงมีนัยสำคัญทางสถิติ

ตัวทำนาย Content ไม่มีผลต่อผลลัพธ์ Consumer_Intention (P = 0.252, > 0.05) ดังนั้นจึงไม่มีนัยสำคัญทางสถิติในโมเดล Regression

ตัวทำนาย SocialMedia มีผลต่อ Consumer_Intention (P = 0.000, < 0.05) ดังนั้นความสัมพันธ์ระหว่างสองตัวแปรจึงมีนัยสำคัญทางสถิติ

โดยสรุป ค่าที่สำคัญที่สุดที่คุณควรตรวจสอบเมื่อต้องการตีความผลลัพธ์ Multiple Linear Regression ใน SPSS คือ:

  • ผลการทดสอบ ANOVA บอกเราว่าความแตกต่างระหว่างกลุ่มในโมเดล Regression มีนัยสำคัญที่ P ≤ 0.05 หรือไม่
  • Regression Coefficients แสดงผลกระทบที่มีนัยสำคัญระหว่างตัวทำนายและตัวแปรผลลัพธ์ที่ P ≤ 0.05

การ Export ผลลัพธ์ Linear Regression ใน SPSS

สุดท้าย มา Export ผลลัพธ์ Multiple Linear Regression ใน SPSS เป็นไฟล์ .pdf เพื่อใช้งานต่อไป ในหน้าต่าง Output ของผลลัพธ์ Regression คลิกที่ File → Export

  • ในหน้าต่าง Export Output เลือกตัวเลือก Portable Document Format (*.pdf) ตัวเลือกอื่นๆ เช่น Word/RTF (.doc) และ PowerPoint (.ppt) ก็มีให้ใช้งานในกรณีที่คุณต้องการรูปแบบเหล่านั้น
  • พิมพ์ File Name และ Browse สำหรับตำแหน่งที่คุณต้องการบันทึกผลลัพธ์ Multiple Linear Regression ใน SPSS
  • คลิกปุ่ม OK เพื่อ Export ผลลัพธ์ SPSS

หน้าต่าง Export Output ของ SPSS แสดงการเลือกรูปแบบ PDF และตัวเลือกตำแหน่งไฟล์ Export ผลลัพธ์ Regression เป็นรูปแบบ PDF, Word หรือ PowerPoint

ไฟล์ที่มีผลลัพธ์ Multiple Linear Regression ใน SPSS พร้อมใช้งานแล้ว

สมมติฐานของ Multiple Linear Regression

ก่อนที่จะตีความผลลัพธ์ของคุณ สิ่งสำคัญคือต้องตรวจสอบว่าข้อมูลของคุณเป็นไปตามสมมติฐานของ Multiple Linear Regression หรือไม่ การละเมิดสมมติฐานเหล่านี้อาจนำไปสู่ผลลัพธ์ที่ไม่ถูกต้องหรือทำให้เข้าใจผิด

1. Linearity (ความเป็นเส้นตรง)

ความสัมพันธ์ระหว่างแต่ละตัวแปรอิสระกับตัวแปรตามควรเป็นเชิงเส้น คุณสามารถตรวจสอบได้โดยการสร้าง Scatterplots ของแต่ละตัวทำนายกับตัวแปรผลลัพธ์ เรียนรู้เพิ่มเติมเกี่ยวกับความเป็นเส้นตรงในสถิติ

วิธีการทดสอบใน SPSS: สร้าง Scatterplots (Graphs → Legacy Dialogs → Scatter/Dot) สำหรับแต่ละคู่ตัวทำนาย-ผลลัพธ์ มองหารูปแบบเชิงเส้นมากกว่าความสัมพันธ์แบบโค้ง

2. Independence of Observations (ความเป็นอิสระของการสังเกต)

การสังเกตแต่ละครั้งควรเป็นอิสระจากกัน สมมติฐานนี้ถูกละเมิดในกรณีเช่น Repeated Measures, Time Series Data หรือ Clustered Data เรียนรู้เพิ่มเติมเกี่ยวกับสมมติฐานความเป็นอิสระ

วิธีการตรวจสอบ: ตรวจสอบการออกแบบการวิจัยของคุณ หากคุณมี Repeated Measures หรือ Clustered Data คุณจะต้องใช้เทคนิคขั้นสูงกว่า เช่น Mixed Models หรือ Generalized Estimating Equations

3. Homoscedasticity (ความแปรปรวนคงที่)

ความแปรปรวนของ Residuals ควรคงที่ในทุกระดับของตัวแปรอิสระ กล่าวอีกนัยหนึ่ง การกระจายของ Residuals ควรเท่ากันโดยประมาณตลอดเส้น Regression เรียนรู้เพิ่มเติมเกี่ยวกับสมมติฐาน Homoscedasticity

วิธีการทดสอบใน SPSS: ในหน้าต่าง Linear Regression คลิก Plots → เพิ่ม ZPRED ไปยังแกน X และ ZRESID ไปยังแกน Y Scatterplot ที่ได้ควรแสดงจุดที่กระจายแบบสุ่มโดยไม่มีรูปแบบกรวยหรือพัด

4. Normality of Residuals (การแจกแจงปกติของ Residuals)

Residuals (ความคลาดเคลื่อน) ควรมีการแจกแจงแบบปกติโดยประมาณ สิ่งนี้สำคัญโดยเฉพาะอย่างยิ่งสำหรับขนาดตัวอย่างที่เล็กกว่า

วิธีการทดสอบใน SPSS: ในหน้าต่าง Linear Regression คลิก Plots → เลือก "Histogram" และ "Normal probability plot" Histogram ควรมีลักษณะคล้ายเส้นโค้งระฆัง และจุดบน P-P Plot ควรอยู่ใกล้เส้นทแยงมุม

5. No Multicollinearity (ไม่มี Multicollinearity)

ตัวแปรอิสระไม่ควรมีความสัมพันธ์กันสูงเกินไป Multicollinearity ที่สูงทำให้ Standard Errors สูงขึ้นและทำให้ยากต่อการประเมินผลกระทบของแต่ละตัวทำนาย

วิธีการทดสอบใน SPSS: ในหน้าต่าง Linear Regression คลิก Statistics → เลือก "Collinearity diagnostics" ดูที่ค่า VIF (Variance Inflation Factor) ค่า VIF เหนือ 10 บ่งชี้ Multicollinearity ที่เป็นปัญหา ค่า Tolerance ต่ำกว่า 0.1 ก็บ่งชี้ปัญหาเช่นกัน

6. No Significant Outliers or Influential Cases (ไม่มี Outliers หรือกรณีที่มีอิทธิพลที่มีนัยสำคัญ)

ค่าสุดโต่งอาจมีผลต่อเส้น Regression ไม่สมส่วนและนำไปสู่ผลลัพธ์ที่ทำให้เข้าใจผิด

วิธีการทดสอบใน SPSS: ในหน้าต่าง Linear Regression คลิก Save → เลือก "Cook's distance" และ "Standardized residuals" ค่า Cook's Distance เหนือ 1 บ่งชี้กรณีที่มีอิทธิพล Standardized Residuals เกิน ±3 บ่งชี้ Outliers ที่เป็นไปได้

คำถามที่พบบ่อย

วิธีการรัน Multiple Regression ใน SPSS: (1) ไปที่ Analyze → Regression → Linear (2) ย้ายตัวแปรตามของคุณไปยังช่อง 'Dependent' (3) ย้ายตัวแปรอิสระทั้งหมด (ตัวทำนาย) ไปยังช่อง 'Independent(s)' (4) ตรวจสอบว่าวิธีตั้งค่าเป็น 'Enter' (5) คลิก OK SPSS จะสร้างตารางผลลัพธ์รวมถึง Model Summary, ANOVA และ Coefficients
มุ่งเน้นไปที่องค์ประกอบสำคัญเหล่านี้: (1) ตรวจสอบ R² ใน Model Summary เพื่อดูเปอร์เซ็นต์ของความแปรปรวนที่อธิบายได้ (2) ดูค่า Sig. ในตาราง ANOVA - หาก P ≤ 0.05 โมเดลของคุณมีนัยสำคัญ (3) ตรวจสอบตาราง Coefficients เพื่อดูว่าตัวทำนายแต่ละตัวมีนัยสำคัญ (P ≤ 0.05) หรือไม่ (4) เปรียบเทียบค่า Standardized Beta เพื่อกำหนดว่าตัวทำนายใดมีผลกระทบที่แข็งแกร่งที่สุด
Simple Linear Regression วิเคราะห์ความสัมพันธ์ระหว่างตัวแปรอิสระหนึ่งตัวกับตัวแปรตามหนึ่งตัว ในขณะที่ Multiple Linear Regression ตรวจสอบความสัมพันธ์ระหว่างตัวแปรอิสระตั้งแต่สองตัวขึ้นไปกับตัวแปรตามหนึ่งตัว Multiple Regression ช่วยให้คุณควบคุมตัวแปรรบกวนและประเมินการมีส่วนร่วมที่ไม่ซ้ำกันของแต่ละตัวทำนาย
ไม่มีค่า R² ที่ 'ดี' สากล - มันขึ้นอยู่กับสาขาของคุณ ในสังคมศาสตร์ R² ของ 0.25-0.40 (25-40% ความแปรปรวนที่อธิบายได้) มักจะยอมรับได้ ในวิทยาศาสตร์กายภาพ คุณอาจคาดหวัง R² เหนือ 0.70 มุ่งเน้นที่ว่า R² ของคุณมีนัยสำคัญทางสถิติหรือไม่และว่าโมเดลของคุณเพิ่มมูลค่าการทำนายที่มีความหมายเหนือความรู้ที่มีอยู่
ในทางเทคนิคไม่จำกัด แต่ในทางปฏิบัติถูกจำกัดด้วยขนาดตัวอย่าง กฎง่ายๆ คือมีอย่างน้อย 10-20 การสังเกตต่อตัวแปรทำนายหนึ่งตัว ตัวอย่างเช่น ด้วยผู้เข้าร่วม 100 คน คุณควรใช้ตัวทำนายไม่เกิน 5-10 ตัว ตัวทำนายมากเกินไปเมื่อเทียบกับขนาดตัวอย่างนำไปสู่ Overfitting และผลลัพธ์ที่ไม่น่าเชื่อถือ
F-statistic ทดสอบว่าโมเดล Regression ของคุณโดยรวมมีนัยสำคัญทางสถิติหรือไม่ มันเปรียบเทียบความแปรปรวนที่อธิบายโดยโมเดลของคุณกับความแปรปรวนที่ไม่สามารถอธิบายได้ การทดสอบ F ที่มีนัยสำคัญ (P ≤ 0.05) หมายความว่าอย่างน้อยหนึ่งในตัวแปรทำนายของคุณทำนายผลลัพธ์อย่างมีนัยสำคัญ หาก F ไม่มีนัยสำคัญ ตัวทำนายของคุณไม่มีตัวใดเพิ่มการทำนายที่มีความหมาย
ในหน้าต่าง Linear Regression คลิก Statistics → เลือก 'Collinearity diagnostics' SPSS จะแสดงค่า VIF (Variance Inflation Factor) และ Tolerance ในตาราง Coefficients ค่า VIF เหนือ 10 หรือ Tolerance ต่ำกว่า 0.1 บ่งชี้ Multicollinearity ที่เป็นปัญหา หากพบ ให้พิจารณาลบตัวทำนายที่มีความสัมพันธ์สูงหรือรวมเข้าเป็นตัวแปรผสม

สรุป

หวังว่าตอนนี้คุณจะเข้าใจวิธีการคำนวณ Multiple Linear Regression ใน SPSS รวมถึงวิธีการตีความผลลัพธ์ Multiple Linear Regression ใน SPSS อย่างที่คุณเห็น มันไม่ยากนัก

หากนี่เป็นครั้งแรกที่คุณทำ Linear Regression ใน SPSS ฉันแนะนำให้คุณทำซ้ำกระบวนการอีกหลายครั้ง รวมถึงลองใช้ชุดข้อมูลของคุณเองสำหรับการวิเคราะห์ Multiple Linear Regression

หากคุณต้องการเรียนรู้เทคนิคทางสถิติขั้นสูงเพิ่มเติม ลองดู การวิเคราะห์ตัวแปรคั่นกลางใน SPSS หรือ การวิเคราะห์ตัวแปรกำกับใน SPSS ซึ่งต้องใช้ความรู้ Multiple Regression เป็นพื้นฐาน