Multiple Linear Regression เป็นหนึ่งในเทคนิคทางสถิติที่ทรงพลังที่สุดสำหรับการวิเคราะห์ความสัมพันธ์ระหว่างตัวแปรอิสระหลายตัวและตัวแปรตามเพียงตัวเดียว ในคู่มือฉบับสมบูรณ์นี้ คุณจะได้เรียนรู้วิธีการรัน Multiple Regression ใน SPSS การตีความผลลัพธ์ และเข้าใจทุกองค์ประกอบของผลการวิเคราะห์
ไม่ว่าคุณจะกำลังศึกษาประสิทธิผลการตลาด ทำนายผลการเรียน หรือวิเคราะห์ความสัมพันธ์ใดๆ ที่มีตัวทำนายหลายตัว บทเรียนนี้ครอบคลุมทุกอย่างตั้งแต่การเตรียมข้อมูลไปจนถึงการตีความผลลัพธ์ เราจะให้ชุดข้อมูล SPSS สำหรับการวิเคราะห์ Multiple Linear Regression เพื่อให้คุณสามารถปฏิบัติตามทีละขั้นตอน
การวิเคราะห์ Multiple Regression ใน SPSS นั้นไม่ยุ่งยาก หากคุณรู้วิธีการคำนวณ Simple Linear Regression ใน SPSS คุณจะพบว่ากระบวนการนั้นเกือบจะเหมือนกัน ความแตกต่างหลักคือการตีความผลลัพธ์ที่มีตัวทำนายหลายตัว และเราจะครอบคลุมทุกพารามิเตอร์โดยละเอียด
Multiple Linear Regression คืออะไร? พร้อมตัวอย่าง
ด้วย Simple Linear Regression เราวิเคราะห์ความสัมพันธ์เชิงสาเหตุระหว่างตัวแปรอิสระเพียงตัวเดียวกับตัวแปรตาม กล่าวอีกนัยหนึ่ง เรามุ่งหมายที่จะดูว่าตัวแปรอิสระ (ตัวทำนาย) มีผลกระทบที่มีนัยสำคัญต่อตัวแปรตาม (ผลลัพธ์) หรือไม่ แต่เราจะวิเคราะห์ Regression อย่างไรเมื่อโมเดลมีตัวแปรอิสระหลายตัว?
นี่คือที่มาของการวิเคราะห์ Multiple Linear Regression
ใน Multiple Linear Regression เราทดสอบผลกระทบของตัวทำนายตั้งแต่สองตัวขึ้นไปต่อตัวแปรผลลัพธ์ จึงเรียกว่า Multiple Linear Regression
Multiple Linear Regression วิเคราะห์ความสัมพันธ์ระหว่างตัวทำนายหลายตัวและผลลัพธ์เพียงตัวเดียว
ในแง่ของการวิเคราะห์ ทั้ง Simple และ Multiple Linear Regression มีเป้าหมายที่เหมือนกัน: ค้นหาว่ามีนัยสำคัญ (P-value) ระหว่างตัวทำนายหลายตัวกับผลลัพธ์หรือไม่ หาก P-value เท่ากับหรือน้อยกว่า 0.05 (P ≤ 0.05) ความสัมพันธ์ระหว่างตัวทำนาย-ผลลัพธ์จะมีนัยสำคัญ
มาดูตัวอย่างของ Multiple Linear Regression กัน สมมติว่าเราต้องการศึกษาความสัมพันธ์ระหว่างความพยายามทางการตลาดกับความตั้งใจซื้อของผู้บริโภคของบริษัท ในกรณีนี้ ตัวแปรทำนายคือความพยายามทางการตลาด และผลลัพธ์คือความตั้งใจซื้อ
"ความพยายามทางการตลาด" เป็นคำที่กว้างมาก และมีปัจจัยหลายอย่างที่สามารถมีส่วนสนับสนุน ไม่มีประโยชน์ที่จะศึกษาความพยายามทางการตลาดโดยรวมหากเราไม่สามารถระบุได้ว่าปัจจัยใดสำคัญกว่าปัจจัยอื่น ใช่ไหม?
มาแบ่งความพยายามทางการตลาดออกเป็นตัวแปรอิสระหลายตัว (X) เช่น Content Marketing (X1), Social Media Marketing (X2) และ Email Marketing (X3) นี่คือลักษณะของกรอบแนวคิดสำหรับตัวอย่างนี้:
ตัวอย่างกรอบแนวคิด: ความพยายามทางการตลาดแบ่งออกเป็นสามตัวทำนาย
ตอนนี้เราได้กรอบแนวคิดแล้ว มาเริ่มวิเคราะห์ Multiple Regression ใน SPSS โดยใช้ตัวอย่างที่เราพูดถึงข้างต้นกัน
วิธีการคำนวณ Multiple Linear Regression ใน SPSS
การคำนวณ Multiple Linear Regression ใน SPSS นั้นคล้ายกับการทำ Simple Linear Regression ใน SPSS มาก หากคุณต้องการทำตาม ดาวน์โหลดชุดข้อมูล SPSS จากส่วน ดาวน์โหลด ด้านบน
ชุดข้อมูล SPSS ตัวอย่างมี 30 ตัวอย่าง โดย Content, SocialMedia, Email เป็นตัวแปรอิสระ (ตัวทำนาย) และ Consumer_Intention เป็นตัวแปรตาม (ผลลัพธ์) หลังจากดาวน์โหลด ให้แตกไฟล์ zip และดับเบิลคลิกไฟล์ที่มีนามสกุล .sav เพื่อนำเข้าชุดข้อมูลใน SPSS
ชุดข้อมูลตัวอย่างที่มีสามตัวทำนายและตัวแปรผลลัพธ์เพียงตัวเดียว
ต่อไป มาเรียนรู้วิธีการคำนวณ Multiple Linear Regression ใน SPSS สำหรับตัวอย่างนี้
ขั้นตอนที่ 1: ในเมนูด้านบนของ SPSS ไปที่ Analyze → Regression → Linear
การนำทางไปยัง Analyze → Regression → Linear ใน SPSS
ขั้นตอนที่ 2: ในหน้าต่าง Linear Regression ใช้ปุ่มลูกศรเพื่อย้ายตัวแปรผลลัพธ์ Consumer_Intention ไปยังช่อง Dependent ทำเช่นเดียวกันกับตัวแปรทำนาย Email, Content และ SocialMedia เพื่อย้ายไปยังช่อง Independent(s)
ตรวจสอบให้แน่ใจว่าวิธี Linear Regression ถูกตั้งค่าเป็น Enter
การเลือกตัวแปรตามและตัวแปรอิสระในหน้าต่าง Linear Regression
ขั้นตอนที่ 3: คลิกปุ่ม OK เพื่อคำนวณ Multiple Linear Regression ใน SPSS หน้าต่างใหม่ที่มีผลลัพธ์ Multiple Linear Regression จะปรากฏขึ้น
การตีความผลลัพธ์ Multiple Linear Regression ใน SPSS
ตอนนี้เราได้ผลลัพธ์ Multiple Linear Regression ใน SPSS แล้ว มาดูวิธีการตีความผลลัพธ์กัน โดยค่าเริ่มต้น SPSS จะแสดงสี่ตารางในผลลัพธ์ Regression:
- Variables Entered/Removed
- Model Summary
- ANOVA
- Coefficients
มาดูแต่ละตารางและเข้าใจว่าคำศัพท์และค่าเหล่านั้นหมายถึงอะไร
ตาราง Variables Entered/Removed
ตารางนี้ประกอบด้วยสรุปการวิเคราะห์ของ Multiple Linear Regression ใน SPSS ได้แก่ โมเดล Regression ที่ใช้ ตัวแปรอิสระและตัวแปรตามที่ป้อนในการวิเคราะห์ รวมถึงวิธี Regression
ในบางกรณี SPSS จะเลือกลบตัวแปรออกจากโมเดลหากพบว่าทำให้เกิดปัญหา Multicollinearity ในการวิเคราะห์ Regression นี้ ไม่มีตัวแปรใดถูกลบออก ดังนั้นเราสามารถสรุปได้ว่าไม่มีตัวแปรใดที่ขึ้นอยู่กับตัวแปรอื่นอย่างเป็นเชิงเส้น
ตาราง Variables Entered/Removed แสดงสรุปโมเดล
ตาราง Model Summary
ตาราง Model Summary ให้สถิติสำคัญเกี่ยวกับว่าโมเดล Regression เหมาะสมกับข้อมูลมากน้อยเพียงใด ตารางนี้รวมถึงการวัดสามตัวที่สำคัญ: R, R² และ Adjusted R²
R (Multiple Correlation Coefficient) แทนความสัมพันธ์ระหว่างค่าที่สังเกตและค่าที่ทำนายของตัวแปรตาม มีค่าตั้งแต่ 0 ถึง 1 โดยค่าที่สูงขึ้นบ่งชี้การทำนายที่ดีขึ้น ในตัวอย่างของเรา R บ่งชี้ความแข็งแกร่งของความสัมพันธ์ระหว่างตัวทำนายทั้งสามรวมกันกับ Consumer_Intention
R² (Coefficient of Determination) บอกเราถึงสัดส่วนของความแปรปรวนในตัวแปรตามที่อธิบายได้โดยตัวแปรอิสระ คำนวณเป็น:
ในกรณีของเรา:
ซึ่งหมายความว่าตัวทำนายทั้งสามของเรา (Email, Content, SocialMedia) อธิบายความแปรผัน 44.3% ใน Consumer_Intention ส่วนที่เหลือ 55.7% เป็นความแปรปรวนที่ไม่สามารถอธิบายได้
Adjusted R² ปรับแก้ R² เพื่อคำนึงถึงจำนวนตัวทำนายในโมเดล มันแม่นยำกว่าสำหรับการเปรียบเทียบโมเดลที่มีจำนวนตัวทำนายที่แตกต่างกัน เพราะมันลงโทษการเพิ่มตัวแปรที่ไม่จำเป็น สูตรคือ:
โดยที่:
- n = ขนาดตัวอย่าง (30 ในกรณีของเรา)
- k = จำนวนตัวทำนาย (3 ในกรณีของเรา)
Adjusted R² จะต่ำกว่า R² เสมอ โดยเฉพาะอย่างยิ่งกับขนาดตัวอย่างที่เล็กหรือตัวทำนายที่มากกว่า เมื่อเปรียบเทียบโมเดล ให้เลือกโมเดลที่มี Adjusted R² สูงกว่า
ตาราง ANOVA
ตาราง ANOVA ใน Multiple Regression ทดสอบว่าโมเดล Regression โดยรวมอธิบายความแปรปรวนในตัวแปรตามอย่างมีนัยสำคัญหรือไม่ มันเปรียบเทียบความแปรปรวนที่อธิบายโดยโมเดล (Regression) กับความแปรปรวนที่ไม่สามารถอธิบายได้ (Residual) หากโมเดลอธิบายความแปรปรวนมากกว่าความคลาดเคลื่อนอย่างมีนัยสำคัญ การทดสอบ F จะมีนัยสำคัญ
ตาราง ANOVA แสดงสถิติความเหมาะสมของโมเดล Regression
มาเริ่มต้นด้วยคอลัมน์ Sum of Squares ใน ANOVA Regression Sum of Squares (SSR) แสดงจำนวนความแปรผันในตัวแปรตามที่อธิบายได้โดยตัวแปรอิสระ ในกรณีของเรา โมเดล Regression อธิบายความแปรผัน 2.952 หน่วย ค่า Regression SS ที่สูงขึ้นบ่งชี้ว่าโมเดลอธิบายความแปรปรวนในผลลัพธ์ได้มากขึ้น ซึ่งเป็นสิ่งที่ต้องการ
Residual Sum of Squares (SSE) วัดความแปรผันที่ไม่สามารถอธิบายได้หรือความคลาดเคลื่อนในโมเดล ในกรณีของเรา Residual Sum of Squares คือ 3.715 ค่า Residual ที่ต่ำกว่าจะดีกว่า เพราะบ่งชี้ความแปรปรวนที่ไม่สามารถอธิบายได้น้อยกว่า Residual ที่เป็นศูนย์จะหมายถึงการทำนายที่สมบูรณ์แบบ
Total Sum of Squares คำนวณโดยบวก Regression Sum of Squares และ Residual Sum of Squares ซึ่งเท่ากับ 6.667 ในกรณีของเรา
ต่อไป มาดูคอลัมน์ Degree of Freedom (df) ใน ANOVA
Regression df เท่ากับจำนวนตัวแปรทำนายในโมเดล (k) ในกรณีของเรา มีตัวทำนาย 3 ตัว (Email, Content, SocialMedia) ดังนั้น Regression df = 3
Residual df คำนวณเป็น: n - k - 1 โดยที่ n คือขนาดตัวอย่าง k คือจำนวนตัวทำนาย และ 1 คำนึงถึง Intercept ด้วยตัวอย่าง 30 ตัวและตัวทำนาย 3 ตัว:
Total df เท่ากับ n - 1 (ขนาดตัวอย่างลบหนึ่ง) ซึ่งเท่ากับ 29 ในตัวอย่างของเรา
Regression Mean Square คำนวณโดยการหาร Regression Sum of Squares ด้วย Regression Degree of Freedom ซึ่งเท่ากับ 0.984 ในตัวอย่างของเรา Residual Mean Square คำนวณในลักษณะเดียวกัน โดยการหาร Residual Sum of Squares ด้วย Residual Degree of Freedom ซึ่งเท่ากับ 0.143 ในกรณีของเรา
คอลัมน์ F ใน ANOVA แทนสถิติ F ซึ่งอาจเป็นปริมาณที่สำคัญที่สุดในการทดสอบ ANOVA สถิติ F เท่ากับอัตราส่วนระหว่าง Regression Mean Square และ Residual Mean Square และใช้ในการคำนวณ P-value ในตัวอย่างของเรา สถิติ F เท่ากับ 6.887
สุดท้าย คอลัมน์ Sig. ใน ANOVA (P-value) บอกเราว่าความแตกต่างระหว่างกลุ่มในโมเดล Regression มีนัยสำคัญหรือไม่ เนื่องจากในกรณีของเรา P เท่ากับ 0.001 ซึ่ง ≤ 0.05 ความแตกต่างระหว่างกลุ่ม Content, SocialMedia และ Email จึงมีนัยสำคัญทางสถิติ
ตาราง Coefficients
ตารางสุดท้ายในผลลัพธ์ Regression คือตาราง Coefficients ที่นี่เราสามารถหารายละเอียดเกี่ยวกับ Unstandardized Coefficient Beta และ Standard Error, Standardized Coefficient Beta, ค่า t และ P-value ของตัวทำนายในโมเดลของเรา
ตาราง Coefficients แสดงนัยสำคัญทางสถิติของแต่ละตัวทำนาย
Unstandardized Coefficient Beta วัดความแปรผันในตัวแปรผลลัพธ์สำหรับหนึ่งหน่วยของการเปลี่ยนแปลงในตัวแปรทำนาย โดยค่าดิบแสดงในสเกลเดิม
Standard Error ของการประมาณค่าวัดระยะทางเฉลี่ยของจุดข้อมูลที่สังเกตได้จากเส้น Regression ค่า Standard Error ที่ใหญ่บ่งชี้ว่าค่าเฉลี่ยตัวอย่างกระจายอย่างกว้างขวางรอบค่าเฉลี่ยประชากร ค่า Standard Error ที่ต่ำบ่งชี้ว่าค่าเฉลี่ยของตัวอย่างและค่าเฉลี่ยของประชากรมีความสัมพันธ์อย่างใกล้ชิด ซึ่งเป็นสิ่งที่ดี
Standardized Coefficients Beta (เรียกอีกอย่างว่า Beta Weights) วัดผลกระทบของแต่ละตัวทำนายเมื่อตัวแปรทั้งหมดถูกทำให้เป็นมาตรฐานให้มีค่าเฉลี่ย 0 และส่วนเบี่ยงเบนมาตรฐาน 1 สิ่งนี้ช่วยให้คุณเปรียบเทียบความสำคัญสัมพัทธ์ของตัวทำนายที่วัดในสเกลที่แตกต่างกัน Standardized Beta ที่มีค่าสัมบูรณ์ใหญ่กว่าบ่งชี้ผลกระทบที่แข็งแกร่งกว่า
คอลัมน์ t statistics แสดงการวัดของส่วนเบี่ยงเบนมาตรฐานของค่าสัมประสิทธิ์ และคำนวณโดยการหารค่าสัมประสิทธิ์ Beta ด้วย Standard Error โดยทั่วไป ค่าที่มากกว่า +2 หรือ -2 ถือว่ายอมรับได้
สุดท้าย คอลัมน์ Sig. (P-value) ในค่าสัมประสิทธิ์ Regression แสดงนัยสำคัญทางสถิติสำหรับแต่ละตัวทำนายต่อตัวแปรผลลัพธ์ โดย P-value ≤ 0.05 ถือว่ายอมรับได้
ในตัวอย่างของเรา เราสามารถสังเกตได้ว่าตัวแปรทำนาย Email มีผลต่อตัวแปรผลลัพธ์ Consumer_Intention (P = 0.043, < 0.05) ดังนั้นความสัมพันธ์จึงมีนัยสำคัญทางสถิติ
ตัวทำนาย Content ไม่มีผลต่อผลลัพธ์ Consumer_Intention (P = 0.252, > 0.05) ดังนั้นจึงไม่มีนัยสำคัญทางสถิติในโมเดล Regression
ตัวทำนาย SocialMedia มีผลต่อ Consumer_Intention (P = 0.000, < 0.05) ดังนั้นความสัมพันธ์ระหว่างสองตัวแปรจึงมีนัยสำคัญทางสถิติ
โดยสรุป ค่าที่สำคัญที่สุดที่คุณควรตรวจสอบเมื่อต้องการตีความผลลัพธ์ Multiple Linear Regression ใน SPSS คือ:
- ผลการทดสอบ ANOVA บอกเราว่าความแตกต่างระหว่างกลุ่มในโมเดล Regression มีนัยสำคัญที่ P ≤ 0.05 หรือไม่
- Regression Coefficients แสดงผลกระทบที่มีนัยสำคัญระหว่างตัวทำนายและตัวแปรผลลัพธ์ที่ P ≤ 0.05
การ Export ผลลัพธ์ Linear Regression ใน SPSS
สุดท้าย มา Export ผลลัพธ์ Multiple Linear Regression ใน SPSS เป็นไฟล์ .pdf เพื่อใช้งานต่อไป ในหน้าต่าง Output ของผลลัพธ์ Regression คลิกที่ File → Export
- ในหน้าต่าง Export Output เลือกตัวเลือก Portable Document Format (*.pdf) ตัวเลือกอื่นๆ เช่น Word/RTF (.doc) และ PowerPoint (.ppt) ก็มีให้ใช้งานในกรณีที่คุณต้องการรูปแบบเหล่านั้น
- พิมพ์ File Name และ Browse สำหรับตำแหน่งที่คุณต้องการบันทึกผลลัพธ์ Multiple Linear Regression ใน SPSS
- คลิกปุ่ม OK เพื่อ Export ผลลัพธ์ SPSS
Export ผลลัพธ์ Regression เป็นรูปแบบ PDF, Word หรือ PowerPoint
ไฟล์ที่มีผลลัพธ์ Multiple Linear Regression ใน SPSS พร้อมใช้งานแล้ว
สมมติฐานของ Multiple Linear Regression
ก่อนที่จะตีความผลลัพธ์ของคุณ สิ่งสำคัญคือต้องตรวจสอบว่าข้อมูลของคุณเป็นไปตามสมมติฐานของ Multiple Linear Regression หรือไม่ การละเมิดสมมติฐานเหล่านี้อาจนำไปสู่ผลลัพธ์ที่ไม่ถูกต้องหรือทำให้เข้าใจผิด
1. Linearity (ความเป็นเส้นตรง)
ความสัมพันธ์ระหว่างแต่ละตัวแปรอิสระกับตัวแปรตามควรเป็นเชิงเส้น คุณสามารถตรวจสอบได้โดยการสร้าง Scatterplots ของแต่ละตัวทำนายกับตัวแปรผลลัพธ์ เรียนรู้เพิ่มเติมเกี่ยวกับความเป็นเส้นตรงในสถิติ
วิธีการทดสอบใน SPSS: สร้าง Scatterplots (Graphs → Legacy Dialogs → Scatter/Dot) สำหรับแต่ละคู่ตัวทำนาย-ผลลัพธ์ มองหารูปแบบเชิงเส้นมากกว่าความสัมพันธ์แบบโค้ง
2. Independence of Observations (ความเป็นอิสระของการสังเกต)
การสังเกตแต่ละครั้งควรเป็นอิสระจากกัน สมมติฐานนี้ถูกละเมิดในกรณีเช่น Repeated Measures, Time Series Data หรือ Clustered Data เรียนรู้เพิ่มเติมเกี่ยวกับสมมติฐานความเป็นอิสระ
วิธีการตรวจสอบ: ตรวจสอบการออกแบบการวิจัยของคุณ หากคุณมี Repeated Measures หรือ Clustered Data คุณจะต้องใช้เทคนิคขั้นสูงกว่า เช่น Mixed Models หรือ Generalized Estimating Equations
3. Homoscedasticity (ความแปรปรวนคงที่)
ความแปรปรวนของ Residuals ควรคงที่ในทุกระดับของตัวแปรอิสระ กล่าวอีกนัยหนึ่ง การกระจายของ Residuals ควรเท่ากันโดยประมาณตลอดเส้น Regression เรียนรู้เพิ่มเติมเกี่ยวกับสมมติฐาน Homoscedasticity
วิธีการทดสอบใน SPSS: ในหน้าต่าง Linear Regression คลิก Plots → เพิ่ม ZPRED ไปยังแกน X และ ZRESID ไปยังแกน Y Scatterplot ที่ได้ควรแสดงจุดที่กระจายแบบสุ่มโดยไม่มีรูปแบบกรวยหรือพัด
4. Normality of Residuals (การแจกแจงปกติของ Residuals)
Residuals (ความคลาดเคลื่อน) ควรมีการแจกแจงแบบปกติโดยประมาณ สิ่งนี้สำคัญโดยเฉพาะอย่างยิ่งสำหรับขนาดตัวอย่างที่เล็กกว่า
วิธีการทดสอบใน SPSS: ในหน้าต่าง Linear Regression คลิก Plots → เลือก "Histogram" และ "Normal probability plot" Histogram ควรมีลักษณะคล้ายเส้นโค้งระฆัง และจุดบน P-P Plot ควรอยู่ใกล้เส้นทแยงมุม
5. No Multicollinearity (ไม่มี Multicollinearity)
ตัวแปรอิสระไม่ควรมีความสัมพันธ์กันสูงเกินไป Multicollinearity ที่สูงทำให้ Standard Errors สูงขึ้นและทำให้ยากต่อการประเมินผลกระทบของแต่ละตัวทำนาย
วิธีการทดสอบใน SPSS: ในหน้าต่าง Linear Regression คลิก Statistics → เลือก "Collinearity diagnostics" ดูที่ค่า VIF (Variance Inflation Factor) ค่า VIF เหนือ 10 บ่งชี้ Multicollinearity ที่เป็นปัญหา ค่า Tolerance ต่ำกว่า 0.1 ก็บ่งชี้ปัญหาเช่นกัน
6. No Significant Outliers or Influential Cases (ไม่มี Outliers หรือกรณีที่มีอิทธิพลที่มีนัยสำคัญ)
ค่าสุดโต่งอาจมีผลต่อเส้น Regression ไม่สมส่วนและนำไปสู่ผลลัพธ์ที่ทำให้เข้าใจผิด
วิธีการทดสอบใน SPSS: ในหน้าต่าง Linear Regression คลิก Save → เลือก "Cook's distance" และ "Standardized residuals" ค่า Cook's Distance เหนือ 1 บ่งชี้กรณีที่มีอิทธิพล Standardized Residuals เกิน ±3 บ่งชี้ Outliers ที่เป็นไปได้
คำถามที่พบบ่อย
สรุป
หวังว่าตอนนี้คุณจะเข้าใจวิธีการคำนวณ Multiple Linear Regression ใน SPSS รวมถึงวิธีการตีความผลลัพธ์ Multiple Linear Regression ใน SPSS อย่างที่คุณเห็น มันไม่ยากนัก
หากนี่เป็นครั้งแรกที่คุณทำ Linear Regression ใน SPSS ฉันแนะนำให้คุณทำซ้ำกระบวนการอีกหลายครั้ง รวมถึงลองใช้ชุดข้อมูลของคุณเองสำหรับการวิเคราะห์ Multiple Linear Regression
หากคุณต้องการเรียนรู้เทคนิคทางสถิติขั้นสูงเพิ่มเติม ลองดู การวิเคราะห์ตัวแปรคั่นกลางใน SPSS หรือ การวิเคราะห์ตัวแปรกำกับใน SPSS ซึ่งต้องใช้ความรู้ Multiple Regression เป็นพื้นฐาน