728x90
๋ฐ˜์‘ํ˜•

Linear Regression 2

[Machine Learning] Logistic Regression ์˜ˆ์‹œ๋ฅผ ํ†ตํ•ด ๋‹ค์ค‘์„ ํ˜•ํšŒ๊ท€ ์ดํ•ดํ•˜๊ธฐ

Logistic Regression ๋ฒ”์ฃผํ˜• ๋ณ€์ˆ˜ ์˜ˆ์ธก ๋ชจ๋ธ Logistic Regression์„ ์•Œ๊ธฐ์ „์— linear regression์„ ๋จผ์ € ์•Œ์•„์•ผ. Multiple Linear Regression (๋‹ค์ค‘์„ ํ˜•ํšŒ๊ท€) ์ˆ˜์น˜ํ˜• ์„ค๋ช…๋ณ€์ˆ˜ X์™€ ์—ฐ์†ํ˜• ์ˆซ์ž๋กœ ์ด๋ค„์ง„ ์ข…์†๋ณ€์ˆ˜ Y๊ฐ„์˜ ๊ด€๊ณ„๋ฅผ ์„ ํ˜•์œผ๋กœ ๊ฐ€์ •ํ•˜๊ณ  ์ด๋ฅผ ๊ฐ€์žฅ ์ž˜ ํ‘œํ˜„ํ•  ์ˆ˜ ์žˆ๋Š” ํšŒ๊ท€๊ณ„์ˆ˜๋ฅผ ๋ฐ์ดํ„ฐ๋กœ๋ถ€ํ„ฐ ์ถ”์ •ํ•˜๋Š” ๋ชจ๋ธ ์ด๋•Œ ํšŒ๊ท€๊ณ„์ˆ˜๋Š” ๋ชจ๋ธ์˜ ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ๊ฐ’์˜ ์ฐจ์ด(์˜ค์ฐจ์ œ๊ณฑํ•ฉ error sum of squared)์„ ์ตœ์†Œ๋กœ ํ•˜๋Š” ๊ฐ’ ์„ค๋ช…๋ณ€์ˆ˜๊ฐ€ p๊ฐœ์ธ ๋‹ค์ค‘์„ ํ˜•ํšŒ๊ท€์˜ ์ผ๋ฐ˜ ์‹ ์˜ˆ์‹œ - 1 ๋‚˜์ด์™€ ํ˜ˆ์•• ๋ฐ์ดํ„ฐ๊ฐ€ ์ฃผ์–ด์กŒ์„ ๋•Œ, ์˜ค์ฐจ์ œ๊ณฑํ•ฉ์„ ์ตœ์†Œ๋กœ ํ•˜๋Š” ํšŒ๊ท€๊ณ„์ˆ˜ ๊ตฌํ•˜๊ธฐ ์„ค๋ช…๋ณ€์ˆ˜ X : ๋‚˜์ด ์ข…์†๋ณ€์ˆ˜ Y : ํ˜ˆ์•• ์•ž์„œ ์ข…์†๋ณ€์ˆ˜ Y๋Š” ‘ํ˜ˆ์••’์œผ๋กœ ์—ฐ์†ํ˜• ์ˆซ์ž์˜€์Œ. ๊ทธ๋ ‡..

๋‹จ์ˆœ์„ ํ˜•ํšŒ๊ท€ / ๋‹ค์ค‘์„ ํ˜•ํšŒ๊ท€ ๊ฐ„.๋‹จ.๋ช….๋ฃŒ

๋‹จ์ˆœ์„ ํ˜•ํšŒ๊ท€ ํ•˜๋‚˜์˜ ํŠน์„ฑ์„ ์ด์šฉํ•ด์„œ ํƒ€๊ฒŸ ์˜ˆ์ธก y = wx + b y : ์˜ˆ์ธก๊ฐ’ x : ํŠน์„ฑ w : ๊ฐ€์ค‘์น˜/๊ณ„์ˆ˜(coefficient) b : ํŽธํ–ฅ(offset) ์ฃผ์–ด์ง„ sample data๋“ค์„ ์ด์šฉํ•˜์—ฌ ๊ฐ€์žฅ ์ ํ•ฉํ•œ w์™€ b๋ฅผ ์ฐพ์•„์•ผ ํ•จ -> ๋ณดํ†ต ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•(gradient descent)๋ฅผ ์ด์šฉํ•ด์„œ ์ฐพ๋Š”๋‹ค ๋‹ค์ค‘์„ ํ˜•ํšŒ๊ท€ ์—ฌ๋Ÿฌ ๊ฐœ์˜ ํŠน์„ฑ์„ ์ด์šฉํ•ด์„œ ํƒ€๊ฒŸ ์˜ˆ์ธก y = w0x0 + w1x1 = w2x2 + ... + b ์—ญ์‹œ MSE๋ฅผ ์ตœ์†Œํ™”ํ•˜๋Š” ๊ฐ€์žฅ ์ ํ•ฉํ•œ w๋“ค๊ณผ b๋ฅผ ์ฐพ๋Š” ๊ฒƒ์ด ๋ชฉํ‘œ ๋ฌธ์ œ : ๊ณผ๋Œ€์ ํ•ฉ ๋  ๋•Œ๊ฐ€ ์ข…์ข… ์žˆ๋‹ค => ์ผ๋ฐ˜ํ™” ๋Šฅ๋ ฅ์ด ๋–จ์–ด์ง„๋‹ค ๋ฆฟ์ง€(Ridge)์™€ ๋ผ์˜(Lasso) ๋ฐฉ๋ฒ•์œผ๋กœ ํ•ด๊ฒฐ

728x90
๋ฐ˜์‘ํ˜•