๋ฐ˜์‘ํ˜•

์ „์ฒด ๊ธ€ 407

ํž™ heap, max heap, min heap ๊ฐœ๋…

ํž™์€ ์ด์ง„ํŠธ๋ฆฌ์˜ ํ•œ ์ข…๋ฅ˜๋กœ, ๊ฐ’์ด ์ตœ๋Œ€ ํ˜น์€ ์ตœ์†Œ ๋…ธ๋“œ์— ๋น ๋ฅด๊ฒŒ ์ ‘๊ทผํ•ด์•ผ ํ•  ๋•Œ ์‚ฌ์šฉํ•œ๋‹ค. ํž™ ์ž๋ฃŒ๊ตฌ์กฐ๋ฅผ ์„ค๊ณ„ํ•˜๋Š” ๋ฐฉ๋ฒ•์—๋Š” 2๊ฐ€์ง€, max heap(์ตœ๋Œ€ํž™)๊ณผ min heap(์ตœ์†Œ ํž™)์ด ์žˆ๋‹ค. ์ตœ๋Œ€ํž™์€ ๋ฃจํŠธ ๋…ธ๋“œ๊ฐ€ ํž™์—์„œ ๊ฐ€์žฅ ํฌ๊ณ , ๋…ธ๋“œ์˜ ๊ฐ ๊ฐ’์€ ๋ถ€๋ชจ๋…ธ๋“œ๋ณด๋‹ค ์ž‘๊ฑฐ๋‚˜ ๊ฐ™๋‹ค ์ตœ์†Œํž™์€ ๋ฃจํŠธ ๋…ธ๋“œ๊ฐ€ ํž™์—์„œ ๊ฐ€์žฅ ์ž‘๊ณ , ๋…ธ๋“œ์˜ ๊ฐ ๊ฐ’์€ ๋ถ€๋ชจ๋…ธ๋“œ๋ณด๋‹ค ํฌ๊ฑฐ๋‚˜ ๊ฐ™๋‹ค

์ด์ง„ํƒ์ƒ‰ํŠธ๋ฆฌ

์ด์ง„ํŠธ๋ฆฌ - ๊ฐ€์žฅ ๋งŽ์ด ์‚ฌ์šฉ๋˜๋Š” ๋ฐ์ดํ„ฐ ๊ตฌ์กฐ, ๊ฐ ๋ถ€๋ชจ๋…ธ๋“œ๊ฐ€ ํ•ญ์ƒ ์ตœ๋Œ€ 2๊ฐœ์˜ ์ž์‹๋…ธ๋“œ์™€ ๋ถ™์–ด ์žˆ์Œ ์ด์ง„ ํƒ์ƒ‰ ํŠธ๋ฆฌ : ์ด์ง„ ํŠธ๋ฆฌ์˜ ๊ฐ€์žฅ ์ผ๋ฐ˜์ ์ธ ์œ ํ˜•, ๋…ธ๋“œ์˜ key ๊ธฐ์ค€์œผ๋กœ ์ •๋ ฌํ•œ ์ƒํƒœ - ์ •๋ ฌ ๊ธฐ์ค€ 1. ๋…ธ๋“œ์˜ ์™ผ์ชฝ ์„œ๋ธŒํŠธ๋ฆฌ์—๋Š” ๋…ธ๋“œ์˜ ํ‚ค๋ณด๋‹ค ์ž‘์€ ํ‚ค๋ฅผ ๊ฐ€์ง„ ๋…ธ๋“œ๋งŒ! 2. ๋…ธ๋“œ์˜ ์˜ค๋ฅธ์ชฝ ์„œ๋ธŒํŠธ๋ฆฌ๋Š” ๋…ธ๋“œ์˜ ํ‚ค๋ณด๋‹ค ํฐ ํ‚ค๋ฅผ ๊ฐ€์ง„ ๋…ธ๋“œ๋งŒ! 3. ์ขŒ์šฐ ์„œ๋ธŒ ํŠธ๋ฆฌ๋„ ๊ฐ๊ฐ ์ด์ง„ ํƒ์ƒ‰ ํŠธ๋ฆฌ 4. ๊ฐ ๋…ธ๋“œ์— ์ค‘๋ณต ํ‚ค(key)๋Š” ์—†์Œ! ๊ทธ๋ž˜์„œ.. ๊ฐ€์žฅ ํฐ ํ‚ค๋ฅผ ๊ฐ€์ง„ ๋…ธ๋“œ๋Š” ๊ฐ€์žฅ ์˜ค๋ฅธ์ชฝ ์„œ๋ธŒํŠธ๋ฆฌ ๋ง๋‹จ(80) ๊ฐ€์žฅ ์ž‘์€ ํ‚ค๋ฅผ ๊ฐ€์ง„ ๋…ธ๋“œ๋Š” ๊ฐ€์žฅ ์™ผ์ชฝ ์„œ๋ธŒํŠธ๋ฆฌ ๋ง๋‹จ(1) ์ด์ง„ํƒ์ƒ‰ํŠธ๋ฆฌ๋กœ ํ•  ์ˆ˜ ์žˆ๋Š” ๋™์ž‘์€ 1. ํŠธ๋ฆฌ์— ๋…ธ๋“œ ์ถ”๊ฐ€ 2. ๋…ธ๋“œ ์‚ญ์ œ 3. ๋…ธํŠธ ์„ ํƒํ•ด ํƒ์ƒ‰ํ•˜๋Š” ํ‚ค๊ฐ€ ์กด์žฌํ•˜๋Š”์ง€ ํ™•์ธ

์„ ํ˜• ์ž๋ฃŒ๊ตฌ์กฐ์™€ ๋น„์„ ํ˜• ์ž๋ฃŒ๊ตฌ์กฐ์˜ ์ฐจ์ด (Linear, NonLinear data structure)

์ž๋ฃŒ๊ตฌ์กฐ๋Š” ์„ ํ˜• ์ž๋ฃŒ๊ตฌ์กฐ์™€ ๋น„์„ ํ˜• ์ž๋ฃŒ๊ตฌ์กฐ๋กœ ๋‚˜๋‰œ๋‹ค. ์„ ํ˜•์ž๋ฃŒ๊ตฌ์กฐ์™€ ๋น„์„ ํ˜• ์ž๋ฃŒ๊ตฌ์กฐ๋Š” ๋ฌด์—‡์ผ๊นŒ? ์„ ํ˜• ์ž๋ฃŒ๊ตฌ์กฐ๋ž€ ํ•˜๋‚˜์˜ ์ž๋ฃŒ ๋’ค์— ํ•˜๋‚˜์˜ ์ž๋ฃŒ๊ฐ€ ์กด์žฌ,์ฆ‰ ์ˆœ์ฐจ์ ์œผ๋กœ ์ด์–ด์ง„ ํ˜•ํƒœ๋ฅผ ์ƒ๊ฐํ•˜๋ฉด ๋œ๋‹ค. 1:1์˜ ์„ ํ˜•๊ด€๊ณ„๋ฅผ ์ด๋ฃจ๊ณ  ์žˆ๋‹ค ๋น„์„ ํ˜• ์ž๋ฃŒ๊ตฌ์กฐ๋ž€ ํ•˜๋‚˜/์—ฌ๋Ÿฌ ๊ฐœ์˜ ์ž๋ฃŒ ๋’ค์— ์—ฌ๋Ÿฌ ๊ฐœ์˜ ์ž๋ฃŒ๊ฐ€ ์กด์žฌํ•˜๋Š” ํ˜•ํƒœ๋กœ, 1:n, ๋˜๋Š” n:n ์˜ ๊ด€๊ณ„๋ฅผ ์ƒ๊ฐํ•˜๋ฉด ๋œ๋‹ค.(์ฃผ๋กœ ๊ณ„์ธต ํ˜•ํƒœ)

[NLP 1-2] BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding ๋…ผ๋ฌธ๋ฆฌ๋ทฐ - 3

#์Šค์Šค๋กœ ๊ณต๋ถ€ํ•˜๊ณ  ๋งŒ๋“  ๋‚ด์šฉ์ž…๋‹ˆ๋‹ค. BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding https://arxiv.org/abs/1810.04805 (์›๋ฌธ) ์ด์ „ ๊ธ€๊ณผ ์ด์–ด์ง€๋Š” ๋‚ด์šฉ์ž…๋‹ˆ๋‹ค. - Introduction & Related Works - Pre-training - Fine-tuning - Experiment - Conclusion + koBERT fine-tuning์€ ์‚ฌ์ „ํ•™์Šต๋œ ๋ฌธ์žฅ์˜ ๋ฌธ๋งฅ ์ •๋ณด ๋“ฑ์„ ๊ณ ๋ คํ•œ weight ๊ฐ’์„ ๊ฐ€์ง€๊ณ , ์‚ฌ์ „ํ›ˆ๋ จ๋œ BERT์˜ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ๊ทธ๋Œ€๋กœ ๊ฐ€์ ธ์™€ ๋ฌธ์„œ๋ถ„๋ฅ˜, ๊ฐœ์ฒด๋ช…์ธ์‹๊ณผ ๊ฐ™์€ ๊ณผ์ œ์— ์ ์šฉ ํ•  ์ˆ˜ ์žˆ๋„๋ก ๋ชจ๋ธ์„ ์—…๋ฐ์ดํŠธํ•˜๋Š” ๊ณผ์ •์ž…๋‹ˆ๋‹ค. fine-tuning์€ pre-tr..

[NLP 1-1] BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding ๋…ผ๋ฌธ๋ฆฌ๋ทฐ-2

#์Šค์Šค๋กœ ๊ณต๋ถ€ํ•˜๊ณ  ๋งŒ๋“  ๋‚ด์šฉ์ž…๋‹ˆ๋‹ค. BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding https://arxiv.org/abs/1810.04805 (์›๋ฌธ) ์ด์ „ ๊ธ€๊ณผ ์ด์–ด์ง€๋Š” ๋‚ด์šฉ์ž…๋‹ˆ๋‹ค. - Introduction & Related Works - Pre-training - Fine-tuning - Experiment - Conclusion + koBert BERT๋Š” ๋ฌธ๋งฅ์„ ๋ฐ˜์˜ํ•œ ์ž„๋ฒ ๋”ฉ(Conatextual Embedding)์„ ๊ฐ€๋Šฅํ•˜๊ฒŒ ํ•ด์ฃผ๋Š” ๋ฒ”์šฉ ์–ธ์–ด ํ‘œํ˜„ ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค. BERT๋Š” ํฌ๊ฒŒ pre-training(์‚ฌ์ „ ํ•™์Šต), fine-tuning(๋ฏธ์„ธ ์กฐ์ •) ๋‘ ๋‹จ๊ณ„๋กœ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. Pre-training..

[NLP 1] BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding ๋…ผ๋ฌธ ๋ฆฌ๋ทฐ - Introduction & Related Works

#์Šค์Šค๋กœ ๊ณต๋ถ€ํ•˜๊ณ  ๋งŒ๋“  ๋‚ด์šฉ์ž…๋‹ˆ๋‹ค. BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding https://arxiv.org/abs/1810.04805 (์›๋ฌธ) ์ž์—ฐ์–ด์ฒ˜๋ฆฌ์—์„œ ๊ฐ€์žฅ ๊ธฐ๋ณธ์ด ๋˜๊ณ  ์ค‘์š”ํ•œ ๋…ผ๋ฌธ ์ค‘ ํ•˜๋‚˜์ธ ๋ฒ„ํŠธ ๋…ผ๋ฌธ์ž…๋‹ˆ๋‹ค. ์›๋ฌธ์„ ๋ฐ”ํƒ•์œผ๋กœ ์„ค๋ช…ํ•˜์˜€์œผ๋ฉฐ, ์ดํ•ด๋ฅผ ๋•๊ธฐ ์œ„ํ•œ ๋ช‡ ๊ฐ€์ง€ ํ•œ๊ตญ์–ด ์˜ˆ์‹œ๋ฅผ ๋ฆฌ์„œ์น˜ํ•˜์—ฌ ๋„ฃ์—ˆ์Šต๋‹ˆ๋‹ค! ์•„๋งˆ 5๋ถ€๋ถ„์œผ๋กœ ๋‚˜๋ˆ„์–ด ์„ค๋ช…ํ•  ๊ฒƒ ๊ฐ™์Šต๋‹ˆ๋‹ค! - Introduction & Related Works - Pre-training - Fine-tuning - Experiment - Conclusion + koBert BERT๋Š” ๊ตฌ๊ธ€์—์„œ ๊ฐœ๋ฐœํ•œ NLP ์‚ฌ์ „ ํ›ˆ๋ จ ๋ชจ๋ธ๋กœ, ํŠน์ • ๋ถ„์•ผ์— ๊ตญํ•œ๋œ ๊ธฐ์ˆ ์ด..

๋งฅ๋ถ์—์„œ ๊นƒํ—ˆ๋ธŒ github์— ์ฝ”๋“œ ์˜ฌ๋ฆฌ๊ธฐ (git ์„ค์น˜)

1. homebrew ์„ค์น˜ - ํ„ฐ๋ฏธ๋„์— ๋ณต๋ถ™ํ•˜๋ฉด ์‚ฐ๋‹จํ•œ ์„ค์น˜๊ฐ€ ๊ฐ€๋Šฅํ•˜๋‹ค.(ํŒจ์Šค์›Œ๋“œ๋Š” ๋งฅ๋ถ ๋น„๋ฐ€๋ฒˆํ˜ธ) https://brew.sh/index_ko Homebrew The Missing Package Manager for macOS (or Linux). brew.sh 2. git ์„ค์น˜ ํ„ฐ๋ฏธ๋„์—์„œ brew install git brew install git ์„ค์น˜๊ฐ€ ์™„๋ฃŒ๋˜๋ฉด, --git version ์œผ๋กœ ์„ค์น˜๊ฐ€ ์™„๋ฃŒ๋˜์—ˆ๋Š”์ง€ ํ™•์ธ ๊ฐ€๋Šฅํ•˜๋‹ค. --git version 3.ํ„ฐ๋ฏธ๋„์—์„œ cd๋กœ ์—…๋กœ๋“œํ•  ํŒŒ์ผ์ด ์žˆ๋Š” ์œ„์น˜๋กœ ์ด๋™ ํ›„, git init git init 4. git add ์œผ๋กœ ํŠน์ •ํŒŒ์ผ ์ถ”๊ฐ€(์˜ˆ) git add README.md 5. ์ปค๋ฐ‹ ๋ฉ”์‹œ์ง€ ์ž‘์„ฑ git commit -m "๋‚ด์šฉ" 6. remote ๋“ฑ๋ก..

๊ตญ๋‚ด ๊ธฐ์—… ๊ธฐ์ˆ ๋ธ”๋กœ๊ทธ ๋ชจ์Œ

๊ธฐ์—…์˜ ํ…Œํฌ๋ธ”๋กœ๊ทธ๋Š” ๊ธฐ์—…์˜ ํŠน๋ณ„ํ•œ ์กฐ์ง๋ฌธํ™”, ๊ธฐ์ˆ  ๊ฐœ์„  ๊ณผ์ •๋“ฑ์ด ์ž‘์„ฑ๋˜์–ด์žˆ๋‹ค. ์‹œ๊ฐ„๋‚ ๋•Œ๋งˆ๋‹ค ํ‹ˆํ‹ˆ์ด ์ฝ์„ ์˜ˆ์ •! SSG https://medium.com/ssgtech SSG TECH BLOG – Medium ์˜ค๊ณ  ์‹ถ์€ ํšŒ์‚ฌ, ์“ฐ๊ณ  ์‹ถ์€ ์„œ๋น„์Šค๋Š” ์ข‹์€ ๊ธฐ์ˆ  ๋ฐ ์กฐ์ง ๋ฌธํ™”์—์„œ ์ƒ๊ธด๋‹ค๊ณ  ๋ฏฟ์Šต๋‹ˆ๋‹ค. SSG์˜ ๋‹ค์–‘ํ•œ ๊ธฐ์ˆ  ๋ฐ ์กฐ์ง ๋ฌธํ™”๋ฅผ ์†Œ๊ฐœํ•ฉ๋‹ˆ๋‹ค. medium.com ๋„ค์ด๋ฒ„d2 https://d2.naver.com/home ๋ผ์ธ https://engineering.linecorp.com/ko/blog/ Blog - LINE ENGINEERING 2022-LINE-engineering-site engineering.linecorp.com ๋ฆฌ๋”” https://www.ridicorp.com/story-category..

[๋ฆฌ๋ทฐ] ์‰ฝ๊ฒŒ ์‹œ์ž‘ํ•˜๋Š” ์บ๊ธ€ ๋ฐ์ดํ„ฐ ๋ถ„์„ - ์ดˆ๋ณด์ž์—๊ฒŒ ์ถ”์ฒœ

for : ์ด๋ก ๋งŒ ๊ณต๋ถ€ํ•œ ๋ฐ์ดํ„ฐ๋ถ„์„ ์ดˆ๋ณด์ž, ํƒ€์ดํƒ€๋‹‰์„ ์–ด๋ ค์›Œํ•˜๋Š” ์‚ฌ๋žŒ, ํ•œ๋ฒˆ๋„ ํƒ€์ดํƒ€๋‹‰์„ ๋๊นŒ์ง€ ํ•ด๋ณธ ์  ์—†๋Š” ์‚ฌ๋žŒ, ์บ๊ธ€์„ ์ฒ˜์Œ ์‹œ์ž‘ํ•˜๋Š” ์‚ฌ๋žŒ ์ถ”์ฒœ : 85% ๋ฐ์ดํ„ฐ ๋ถ„์„ ๊ณต๋ถ€๋ฅผ ์‹œ์ž‘ํ•  ๋•Œ, ๊ฐ€์žฅ ๋จผ์ € ํ•˜๋Š” ํ”„๋กœ์ ํŠธ๋Š” ์บ๊ธ€์˜ ํƒ€์ดํƒ€๋‹‰๊ณผ ์•„์ด๋ฆฌ์Šค(๋ถ“๊ฝƒ), ์ฃผํƒ ๊ฐ€๊ฒฉ ์—์ธก ํ”„๋กœ์ ํŠธ๊ฐ€ ์•„๋‹๊นŒ ์‹ถ๋‹ค. ๊ทธ์น˜๋งŒ ์ดˆ๋ณด์ž์—๊ฒŒ๋Š” ๋ง‰์ƒ ํ•ด๋ณด๋ผํ•˜๋ฉด ์ž˜ํ•˜์ง€ ๋ชปํ•˜๋Š” ๊ฒฝ์šฐ๊ฐ€ ๋Œ€๋‹ค์ˆ˜์ด๋‹ค. ๊ทธ๋งŒํผ ์ฒ˜์Œ ์‹œ์ž‘ํ•˜๋Š” ์‚ฌ๋žŒ๋“ค์—๊ฒŒ๋Š” ์–ด๋ ต๊ณ , ์บ๊ธ€์— ์žˆ๋Š” ์ฝ”๋“œ๋“ค์„ ๋ณธ๋‹ค ํ•œ๋“ค ํ•œ๋ฒˆ์— ์ดํ•ด๋ฅผ ๋ชปํ•˜๋Š” ๋ชจ์Šต์„ ๋งŽ์ด ๋ด์™”๋‹ค. ์ด๊ฒƒ ๋•Œ๋ฌธ์— ๋ฐ์ดํ„ฐ ๋ถ„์„์„ ์–ด๋ ค์›Œํ•˜๊ณ , ํ”ผํ•˜๊ฒŒ ๋˜๊ณ , ํฌ๊ธฐํ•˜๊ฒŒ ๋˜๋Š” ๊ฒƒ ๊ฐ™๋‹ค. ์ด ์ฑ…์€ ๋ฐ์ดํ„ฐ๋ถ„์„์„ ๊ณต๋ถ€ํ•˜์ง€๋งŒ, ํƒ€์ดํƒ€๋‹‰์—์„œ ์ขŒ์ ˆ์„ ๋งž๋ณธ ์ดˆ๋ณด์ž๋“ค ๋‹ค์‹œ ๋„์ „ํ•  ์ˆ˜ ์žˆ๊ฒŒ ํ•ด์ฃผ๋Š” ์ฑ…์ด๋ž„๊นŒ ์นœ์ ˆํ•˜๊ฒŒ ํƒ€์ดํƒ€๋‹‰, ์ฃผํƒ ๊ฐ€๊ฒฉ ์˜ˆ์ธก ๋‘ ํ”„..

Reading 2022.09.22

๋งฅ๋ถ์—์„œ ์•„๋‚˜์ฝ˜๋‹ค ์ฃผํ”ผํ„ฐ ๋…ธํŠธ๋ถ ์„ธํŒ…ํ•˜๊ธฐ for import xgboost

๋งฅ๋ถ์—์„œ ์ฃผํ”ผํ„ฐ ๋…ธํŠธ๋ถ์„ ์‹คํ–‰ํ•˜๊ธฐ ์œ„ํ•ด์„œ๋Š” ์•„๋‚˜์ฝ˜๋‹ค ์„ค์น˜๊ฐ€ ํ•„์š”ํ•˜๋‹ค. https://www.anaconda.com/products/distribution Anaconda | Anaconda Distribution Anaconda's open-source Distribution is the easiest way to perform Python/R data science and machine learning on a single machine. www.anaconda.com ์—์„œ ๋‹ค์šด๋กœ๋“œ ์ง„ํ–‰ ํ›„ ์„ค์น˜ํ•ด์ค€๋‹ค. You cannot install Anaconda in this location ์—๋Ÿฌ๊ฐ€ ๋ฐœ์ƒํ•˜๋”๋ผ๋„ Install for me only ์˜ต์…˜์„ ์„ ํƒ ํ›„ ์„ค์น˜ํ•˜๋ฉด ํ•ด๊ฒฐ๋œ๋‹ค. ์„ค์น˜๊ฐ€ ์™„๋ฃŒ๋œ ํ›„ Anacon..

[NLP] ์…€ํ”„ ์–ดํƒ ์…˜

์…€ํ”„ ์–ดํ…์…˜ ์ˆ˜ํ–‰ ๋Œ€์ƒ = ์ž…๋ ฅ ์‹œํ€€์Šค ์ „์ฒด ๊ฐœ๋ณ„ ๋‹จ์–ด์™€ ์ „์ฒด ์ž…๋ ฅ ์‹œํ€€์Šค๋ฅผ ๋Œ€์ƒ์œผ๋กœ ์–ดํ…์…˜ ๊ณ„์‚ฐ์„ ์ˆ˜ํ–‰ํ•ด ๋ฌธ๋งฅ ์ „์ฒด๋ฅผ ๊ณ ๋ คํ•˜๊ธฐ ๋•Œ๋ฌธ์— ์ง€์—ญ์ ์ธ ๋ฌธ๋งฅ๋งŒ ๋ณด๋Š” CNN๊ณผ ์ฐจ์ด๊ฐ€ ์žˆ์Œ ๋ชจ๋“  ๊ฒฝ์šฐ์˜ ์ˆ˜๋ฅผ ๊ณ ๋ ค(๋‹จ์–ด๋“ค ์„œ๋กœ๊ฐ€ ์„œ๋กœ๋ฅผ 1๋Œ€ 1๋กœ ๋ฐ”๋ผ๋ณด๊ฒŒ ํ•จ)ํ•˜๊ธฐ ๋•Œ๋ฌธ์— ์‹œํ€€์Šค ๊ธธ์ด๊ฐ€ ๊ธธ์–ด์ง€๋”๋ผ๋„ ์ •๋ณด๋ฅผ ์žŠ๊ฑฐ๋‚˜ ์™œ๊ณกํ•  ์—ผ๋ ค๊ฐ€ ์—†๋‹ค๋Š” ์ ์—์„œ RNN๊ณผ ์ฐจ์ด ์–ดํ…์…˜๊ณผ ์…€ํ”„ ์–ดํ…์…˜ ์ฐจ์ด ์–ดํ…์…˜์€ ์†Œ์Šค ์‹œํ€€์Šค ์ „์ฒด ๋‹จ์–ด๋“ค(์–ด์ œ, ์นดํŽ˜, …, ๋งŽ๋”๋ผ)๊ณผ ํƒ€๊นƒ ์‹œํ€€์Šค ๋‹จ์–ด ํ•˜๋‚˜(cafe) ์‚ฌ์ด๋ฅผ ์—ฐ๊ฒฐํ•˜๋Š” ๋ฐ ์“ฐ์ž…๋‹ˆ๋‹ค. ๋ฐ˜๋ฉด ์…€ํ”„ ์–ดํ…์…˜์€ ์ž…๋ ฅ ์‹œํ€€์Šค ์ „์ฒด ๋‹จ์–ด๋“ค ์‚ฌ์ด๋ฅผ ์—ฐ๊ฒฐํ•ฉ๋‹ˆ๋‹ค. ์–ดํ…์…˜์€ RNN ๊ตฌ์กฐ ์œ„์—์„œ ๋™์ž‘ํ•˜์ง€๋งŒ ์…€ํ”„ ์–ดํ…์…˜์€ RNN ์—†์ด ๋™์ž‘ํ•ฉ๋‹ˆ๋‹ค. ํƒ€๊นƒ ์–ธ์–ด์˜ ๋‹จ์–ด๋ฅผ 1๊ฐœ ์ƒ์„ฑํ•  ๋•Œ ์–ดํ…์…˜์€ 1ํšŒ ์ˆ˜ํ–‰ํ•˜์ง€๋งŒ ์…€ํ”„์–ดํ…์…˜..

[NLP] ํŠธ๋žœ์Šคํฌ๋จธ ๋ธ”๋ก, ์–ดํƒ ์…˜๊ณผ ์…€ํ”„ ์–ดํƒ ์…˜

ํŠธ๋žœ์Šคํฌ๋จธ์˜ ์ธ์ฝ”๋”๋Š” ์ด๊ฐ™์€ ๋ธ”๋ก์„ ์ˆ˜์‹ญ ๊ฐœ ์Œ“์•„์„œ ๊ตฌ์„ฑํ•œ๋‹ค ์ธ์ฝ”๋” ๋ธ”๋ก ๊ตฌ์„ฑ์š”์†Œ ๋ฉ€ํ‹ฐ ํ—ค๋“œ ์–ดํ…์…˜(Multi-Head Attention) ํ”ผ๋“œํฌ์›Œ๋“œ ๋‰ด๋Ÿด๋„คํŠธ์›Œํฌ(FeedForward) ์ž”์ฐจ ์—ฐ๊ฒฐ ๋ฐ ๋ ˆ์ด์–ด ์ •๊ทœํ™”(Add & Norm) ๋งˆ์Šคํฌ๋ฅผ ์ ์šฉํ•œ ๋ฉ€ํ‹ฐ ํ—ค๋“œ ์–ดํ…์…˜(Masked Multi-Head Attention) ๋ฉ€ํ‹ฐ ํ—ค๋“œ ์–ดํ…์…˜(Multi-Head Attention) ํ”ผ๋“œํฌ์›Œ๋“œ ๋‰ด๋Ÿด ๋„คํŠธ์›Œํฌ(FeedForward) ์ž”์ฐจ ์—ฐ๊ฒฐ ๋ฐ ๋ ˆ์ด์–ด ์ •๊ทœํ™”(Add & Norm) Self attention = Multi-Head Attention ์–ดํ…์…˜ = ์ค‘์š”ํ•œ ์š”์†Œ์— ๋” ์ง‘์ค‘ํ•ด ์„ฑ๋Šฅ์„ ๋Œ์–ด ์˜ฌ๋ฆฌ๋Š” ๊ธฐ๋ฒ• ๊ธฐ๊ณ„๋ฒˆ์—ญ์— ์–ดํ…์…˜ ๋„์ž…ํ•˜๋ฉด ํƒ€๊นƒ ์–ธ์–ด๋ฅผ ๋””์ฝ”๋”ฉํ•  ๋•Œ ์†Œ์Šค ์–ธ์–ด์˜ ๋‹จ์–ด ์‹œ๋ญ์Šค ๊ฐ€์šด๋ฐ ๋””์ฝ”๋”ฉ์— ๋„์›€์ด ๋˜๋Š” ..

[NLP] ์–ธ์–ด๋ชจ๋ธ: ํŠธ๋žœ์Šคํฌ๋จธ ๊ฐœ์š”

์–ธ์–ด ๋ชจ๋ธ์ด๋ž€? ๋‹จ์–ด ์‹œํ€€์Šค์— ํ™•๋ฅ ์„ ๋ถ€์—ฌํ•˜๋Š” ๋ชจ๋ธ ํŠธ๋žœ์Šคํฌ๋จธ? 2017๋…„ ๊ตฌ๊ธ€์ด ์ œ์•ˆํ•œ ์‹œํ€€์Šค-ํˆฌ-์‹œํ€€์Šค ๋ชจ๋ธ, ๊ธฐ๊ณ„๋ฒˆ์—ญ๊ณผ ๊ฐ™์€ ์‹œํ€€์Šค-ํˆฌ-์‹œํ€€์Šค ๊ณผ์ œ๋ฅผ ์ˆ˜ํ–‰ํ•œ๋‹ค. ์‹œํ€€์Šค? ๋‹จ์–ด์™€ ๊ฐ™์€ ๋ฌด์–ธ๊ฐ€์˜ ๋‚˜์—ด ์‹œํ€€์Šค-ํˆฌ-์‹œํ€€์Šค? ํŠน์ • ์†์„ฑ์„ ์ง€๋‹Œ ์‹œํ€€์Šค๋ฅผ ๋‹ค๋ฅธ ์†์„ฑ์˜ ์‹œํ€€์Šค๋กœ ๋ณ€ํ™˜ํ•˜๋Š” ์ž‘์—… (๊ธฐ๊ณ„ ๋ฒˆ์—ญ) ์†Œ์Šค ์–ธ์–ด -> ํƒ€๊นƒ ์–ธ์–ด๋กœ ๋ณ€ํ™˜ (์ด๋•Œ ๊ธธ์ด๊ฐ€ ๋‹ฌ๋ผ๋„ ๊ณผ์ œ ์ˆ˜ํ–‰์— ๋ฌธ์ œ๊ฐ€ ์—†์–ด์•ผ ํ•จ) ์‹œํ€€์Šค-ํˆฌ-์‹œํ€€์Šค ๋ชจ๋ธ์˜ ๊ตฌ์„ฑ ์ธ์ฝ”๋” : ์†Œ์Šค ์‹œํ€€์Šค ์••์ถ•(=์ธ์ฝ”๋”ฉ)ํ•˜์—ฌ ๋””์ฝ”๋”๋กœ ๋ณด๋ƒ„ ๋””์ฝ”๋” : ํƒ€๊นƒ ์‹œํ€€์Šค ์ƒ์„ฑ(=๋””์ฝ”๋”ฉ) input:์†Œ์Šค ์‹œํ€€์Šค ์ „์ฒด output : ํƒ€๊นƒ ์‹œ๋ญ”์Šค ์ผ๋ถ€ ์ธ์ฝ”๋” ์ž…๋ ฅ : ์–ด์ œ, ์นดํŽ˜, ๊ฐ”์—ˆ์–ด, ๊ฑฐ๊ธฐ, ์‚ฌ๋žŒ, ๋งŽ๋”๋ผ (์†Œ์Šค์‹œํ€€์Šค ์ „์ฒด) ๋””์ฝ”๋” ์ž…๋ ฅ: ํƒ€๊นƒ ์‹œํ€€์Šค์˜ ์‹œ์ž‘์„ ์•Œ๋ฆฌ๋Š” ์ŠคํŽ˜์…œ ํ† ํฐ ..

์šฐ๋„ likelihood

์šฐ๋„ likelihood ๊ฐ€๋Šฅ๋„ ํ™•๋ฅ  ๋ถ„ํฌ์˜ ๋ชจ์ˆ˜๊ฐ€, ์–ด๋–ค ํ™•๋ฅ ๋ณ€์ˆ˜์˜ ํ‘œ์ง‘๊ฐ’๊ณผ ์ผ๊ด€๋˜๋Š” ์ •๋„๋ฅผ ๋‚˜ํƒ€๋‚ด๋Š” ๊ฐ’ ํŠน์ • ์‚ฌ๊ฑด๋“ค์ด ์ผ์–ด๋‚  ๊ฐ€๋Šฅ์„ฑ‘ ๋˜๋Š” ‘์ƒ˜ํ”Œ๋“ค๊ณผ ํ™•๋ฅ ๋ถ„ํฌ์˜ ์ผ๊ด€๋œ ์ •๋„ ์–ด๋–ค ์‹œํ–‰์˜ ๊ฒฐ๊ณผ (Evidence) E ๊ฐ€ ์ฃผ์–ด์กŒ๋‹ค ํ•  ๋•Œ, ๋งŒ์ผ ์ฃผ์–ด์ง„ ๊ฐ€์„ค H ๊ฐ€ ์ฐธ์ด๋ผ๋ฉด, ๊ทธ๋Ÿฌํ•œ ๊ฒฐ๊ณผ E ๊ฐ€ ๋‚˜์˜ฌ ์ •๋„๋Š” ์–ผ๋งˆ๋‚˜ ๋˜๊ฒ ๋Š๋ƒ ํ•˜๋Š” ๊ฒƒ ์ฆ‰ ๊ฒฐ๊ณผ E ๊ฐ€ ๋‚˜์˜จ ๊ฒฝ์šฐ, ๊ทธ๋Ÿฌํ•œ ๊ฒฐ๊ณผ๊ฐ€ ๋‚˜์˜ฌ ์ˆ˜ ์žˆ๋Š” ์—ฌ๋Ÿฌ ๊ฐ€๋Šฅํ•œ ๊ฐ€์„ค๋“ค์„ ํ‰๊ฐ€ํ•  ์ˆ˜ ์žˆ๋Š” ์ธก๋„๊ฐ€ ๊ณง ์šฐ๋„์ธ ์…ˆ์ด๋‹ค.

[NLP] ํ† ํฐํ™” , BPE, ์›Œ๋“œํ”ผ์Šค

ํ† ํฐํ™”๋ž€? ๋ฌธ์žฅ์„ ํ† ํฐ ์‹œํ€€์Šค๋กœ ๋‚˜๋ˆ„๋Š” ๊ณผ์ • ํ† ํฌ๋‚˜์ด์ €๋ž€? ํ† ํฐํ™” ์ˆ˜ํ–‰ํ•˜๋Š” ํ”„๋กœ๊ทธ๋žจ ํ•œ๊ตญ์–ด ํ† ํฌ๋‚˜์ด์ € : mecab, kkma,,,,,๋“ฑ๋“ฑ ์ข…๋ฅ˜์— ๋”ฐ๋ผ ํ’ˆ์‚ฌ ํƒœ๊น…๊นŒ์ง€ ํ•˜๋Š” ๊ฒฝ์šฐ๋„ ์žˆ์Œ 1. ๋‹จ์–ด(์–ด์ ˆ) ๋‹จ์œ„ ํ† ํฐํ™” - ๊ณต๋ฐฑ ๊ธฐ์ค€์œผ๋กœ ํ† ํฐํ™” ex) ์•„๊นŒ ์นดํŽ˜์— ์žˆ์—ˆ์–ด -> ์•„๊นŒ, ์นดํŽ˜์—, ์žˆ์—ˆ์–ด -- ๊ณต๋ฐฑ์œผ๋กœ ๋ถ„๋ฆฌํ•˜๋ฉด ๋ณ„๋„๋กœ ํ† ํฌ๋‚˜์ด์ €๋ฅผ ์“ฐ์ง€ ์•Š์•„๋„ ๋œ๋‹ค๋Š” ์žฅ์ ์ด ์žˆ์ง€๋งŒ, ์–ดํœ˜ ์ง‘ํ•ฉ(vocabulary)์˜ ํฌ๊ธฐ๊ฐ€ ๋งค์šฐ ์ปค์งˆ ์ˆ˜ ์žˆ์Œ(์žˆ์–ด, ์žˆ์—ˆ์–ด, ์žˆ์—ˆ๋Š”๋ฐ์š”๊นŒ์ง€ ๋ชจ๋“  ๊ฒฝ์šฐ์˜ ์ˆ˜๊ฐ€ ์–ดํœ˜์ง‘ํ•ฉ์— ๋“ค์–ด๊ฐ€์•ผ ํ•˜๊ธฐ ๋•Œ๋ฌธ) ์–ดํœ˜ ์ง‘ํ•ฉ ํฌ๊ธฐ๊ฐ€ ์ปค์ง€๋ฉด ๊ทธ๋งŒํผ ๋ชจ๋ธ ํ•™์Šต์ด ์–ด๋ ค์›Œ์งˆ ์ˆ˜ ์žˆ์Œ mecab๊ฐ™์€ ๊ฒฝ์šฐ ์•„๊นŒ, ์นดํŽ˜์—, ์žˆ์—ˆ,์–ด ์™€ ๊ฐ™์ด ์˜๋ฏธ์žˆ๋Š” ๋‹จ์œ„๋กœ ํ† ํฐํ™”ํ•˜๊ธฐ์— ์–ดํœ˜์ง‘ํ•ฉํฌ๊ธฐ๊ฐ€ ์ง€๋‚˜์น˜๊ฒŒ ์ปค์ง€๋Š” ๊ฒƒ์„ ๋ง‰์„ ์ˆ˜๋Š” ์žˆ์Œ ..

[NLP]๋”ฅ๋Ÿฌ๋‹ ๊ธฐ๋ฐ˜ ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ ๋ชจ๋ธ

๊ธฐ๊ณ„๊ฐ€ ์‚ฌ๋žŒ๋ง์„ ์•Œ์•„๋“ฃ๊ฒŒ ํ•˜๋ ค๋ฉด ๋ชจ๋ธ์ด ์žˆ์–ด์•ผ ํ•จ ์ž…๋ ฅ(์ž์—ฐ์–ด) --------------> ๋ชจ๋ธ(ํ•จ์ˆ˜) -----------> ์ถœ๋ ฅ(ํ™•๋ฅ ๊ฐ’: 0~1์‚ฌ์ด) NLP๋ชจ๋ธ : ์ž์—ฐ์–ด๋ฅผ ์ž…๋ ฅ๋ฐ›์•„ ํ•ด๋‹น ์ž…๋ ฅ์ด ํŠน์ • ๋ฒ”์ฃผ์ผ ํ™•๋ฅ ์„ ๋ฐ˜ํ™˜ํ•˜๋Š” ํ™•๋ฅ  ํ•จ์ˆ˜์ด๋‹ค. ์ถœ๋ ฅ๋œ ํ™•๋ฅ ์„ post processing(ํ›„์ฒ˜๋ฆฌ)ํ•ด์„œ ์ž์—ฐ์–ด๋กœ ๋‹ค์‹œ ๋ฐ”๊ฟˆ ๊ฐ€์žฅ ์ธ๊ธฐ์žˆ๋Š” ๋ชจ๋ธ - ๋”ฅ๋Ÿฌ๋‹(๋งŽ์€ ์€๋‹‰์ธต ์‚ฌ์šฉ) ex) GPT, BERT,,, ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ํ•™์Šต ํ•™์Šต ๋ฐ์ดํ„ฐ์— ๋ ˆ์ด๋ธ”์ด ์žˆ์–ด์•ผ ํ•จ ex) ๊ฐ์„ฑ๋ถ„์„์˜ ๊ฒฝ์šฐ - ๊ธ์ •1 ์ค‘๋ฆฝ0 ๋ถ€์ •0 ๋ชจ๋ธ์ด ์Šค์Šค๋กœ ํŒจํ„ด์„ ์ตํž ์ˆ˜ ์žˆ๋„๋ก train(ํ•™์Šต) train : ์ถœ๋ ฅ์ด ์ •๋‹ต์— ๊ฐ€๊นŒ์›Œ์ง€๋„๋ก ๋ชจ๋ธ์„ ์—…๋ฐ์ดํŠธํ•˜๋Š” ๊ณผ์ • Transfer learning ์ „์ด ํ•™์Šต : ํŠน์ • ํ…Œ์Šคํฌ๋ฅผ ํ•™์Šตํ•œ ๋ชจ๋ธ์„ ๋‹ค๋ฅธ ํ…Œ์Šคํฌ ..

[๋”ฅ๋Ÿฌ๋‹] ์›ํ•ซ์ธ์ฝ”๋”ฉ, ์†Œํ”„ํŠธ๋งฅ์Šค, ๋ชฉ์ ํ•จ์ˆ˜, ๋ฉ”ํŠธ๋ฆญ, fit

์›ํ•ซ์ธ์ฝ”๋”ฉ - ์ˆซ์ž๊ฐ€ ์•„๋‹Œ ๋ฒ”์ฃผํ˜• ํŠน์ง•์„ ์ˆซ์žํ˜•์œผ๋กœ ํ‘œํ˜„ํ•˜๋Š” ๋ฐฉ๋ฒ• - ์˜ˆ๋ฅผ ๋“ค์–ด, [0-9]์˜ d๊ฐ’์„ ๊ฐ–๋Š” ๋ฒ”์ฃผํ˜• ์ˆซ์ž๋Š” d๋ฒˆ์งธ ์œ„์น˜๋งŒ 1๋กœ ํ•˜๊ณ  ๋‚˜๋จธ์ง€๋Š” ํ•ญ์ƒ 0๊ฐ’์„ ๊ฐ–๋Š” ๋ฒกํ„ฐ๋กœ ์ธ์ฝ”๋”ฉํ•  ์ˆ˜ ์žˆ๋‹ค. - ํ•™์Šต ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด ์ˆ˜์น˜ํ˜• ํ•จ์ˆ˜๋ฅผ ์ฒ˜๋ฆฌํ•˜๊ฒŒ ์ž‘์„ฑ๋์„ ๋•Œ ๋ฐ์ดํ„ฐ๋งˆ์ด๋‹์—์„œ ์‚ฌ์šฉํ•œ๋‹ค. ์†Œํ”„ํŠธ๋งฅ์Šค - ์ž„์˜์˜ ์‹ค์ˆ˜ ๊ฐ’์„ ๊ฐ–๋Š” k์ฐจ์›์˜ ๋ฒกํ„ฐ๋ฅผ (0,1)์‚ฌ์ด์˜ ์‹ค์ˆ˜ ๊ฐ’์œผ๋กœ ์ถ•์†Œํ•œ๋‹ค. ๋ชจ๋ธ์„ ์ •์˜ํ•œ ๋‹ค์Œ, ๋ชจ๋ธ์„ ํ…์„œํ”Œ๋กœ์—์„œ ์‹คํ–‰ํ•  ์ˆ˜ ์žˆ๋„๋ก ์ปดํŒŒ์ผํ•ด์•ผํ•œ๋‹ค. ์ปดํŒŒ์ผ ๊ณผ์ •์—์„œ์˜ ์„ ํƒ์‚ฌํ•ญ : - ์˜ตํ‹ฐ๋งˆ์ด์ €(๋ชจ๋ธ ํ•™์Šตํ•  ๋•Œ ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ ์•Œ๊ณ ๋ฆฌ์ฆ˜) - ์ตœ์ ํ™”ํ•˜๋Š”๋ฐ ์‚ฌ์šฉํ•  ๋ชฉ์ ํ•จ์ˆ˜ ์ง€์ • - ํ•™์Šตํ•œ ๋ชจ๋ธ ํ‰๊ฐ€ ๋ชฉ์ ํ•จ์ˆ˜ MSE - ์˜ˆ์ธก ๊ฐ’๊ณผ ์‹ค์ œ ๊ฐ’ ์ฐจ์ด์˜ ํ‰๊ท  ์ œ๊ณฑ ์˜ค์ฐจ ์ด์ง„ ํฌ๋กœ์Šค์—”ํŠธ๋กœํ”ผ - ์ด์ง„๋กœ๊ทธ์†์‹ค. ์ด์ง„ ๋ ˆ์ด๋ธ” ์˜ˆ..

[๋”ฅ๋Ÿฌ๋‹]์‹ ๊ฒฝ๋ง (w. Keras) , ํผ์…‰ํŠธ๋ก , ํ™œ์„ฑํ™” ํ•จ์ˆ˜(์‹œ๊ทธ๋ชจ์ด๋“œ, ReLU)

์‹ ๊ฒฝ๋ง์€ ํฌ์œ ๋ฅ˜์˜ ์‹ ๊ฒฝ๊ณ„์—์„œ ์˜๊ฐ์„ ๋ฐ›์€ ๋จธ์‹ ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ํ•œ ์ข…๋ฅ˜ ๊ฐ ์‹ ๊ฒฝ๋ง์€ ์„œ๋กœ ์—ฐ๊ฒฐ๋œ ๋‰ด๋Ÿฐ๋“ค๋กœ ๊ตฌ์„ฑ๋˜์–ด ์žˆ์œผ๋ฉฐ, ํŠน์ •์ƒํƒœ๊ฐ€ ๋˜๋ฉด ๋ฉ”์„ธ์ง€๋ฅผ ๊ตํ™˜ํ•˜๋Š” ๊ณ„์ธต(layer)๋กœ ๊ตฌ์„ฑ๋œ๋‹ค. ์ดˆ๊ธฐ ์—ฐ๊ตฌ๋Š” 1950๋…„๋Œ€ ํ›„๋ฐ˜ ํผ์…‰ํŠธ๋ก ์—์„œ ์‹œ์ž‘ํ–ˆ๋‹ค. ํผ์…‰ํŠธ๋ก ์€ ๋‘ ๊ณ„์ธต์œผ๋กœ ๊ฐ„๋‹จํ•œ ์—ฐ์‚ฐ์— ์‚ฌ์šฉํ–ˆ๊ณ , 1960๋…„๋Œ€ ํ›„๋ฐ˜์— ์—ญ์ „ํŒŒ ์•Œ๊ณ ๋ฆฌ์ฆ˜์˜ ์†Œ๊ฐœ๋กœ ๋‹ค์ธต์‹ ๊ฒฝ๋งํ•™์Šต์ด ๊ฐ€๋Šฅํ•ด์ง€๋ฉด์„œ ํ™•์žฅ๋๋‹ค. ์ด๋Ÿฌํ•œ ๊ฐœ์„ ์˜ ์—ญ์‚ฌ๋Š” ๋งŽ์€ ์ˆ˜์˜ ๋‰ด๋Ÿฐ ๊ณ„์ธต์„ ๊ฐ–๋Š” ์‹ ๊ฒฝ๋ง ์ข…๋ฅ˜์ธ ๋”ฅ๋Ÿฌ๋‹์„ ์œ„ํ•œ ๋ฐœํŒ์ด ๋๋‹ค. ์ผ€๋ผ์ŠคKeras - ๋”ฅ๋Ÿฌ๋‹ ๊ณ„์‚ฐ์„ ์œ„ํ•œ ์ž‘๊ณ  ํšจ์œจ์ ์ธ ํŒŒ์ด์ฌ ๋ผ์ด๋ธŒ๋Ÿฌ๋ฆฌ ํผ์…‰ํŠธ๋ก  ํผ์…‰ํŠธ๋ก ์€ n๊ฐœ์˜ ํฌ๊ธฐ๋ฅผ ๊ฐ–๋Š” ์ž…๋ ฅ ๋ฒกํ„ฐ(x1,x2,,,,,xn)๊ฐ€ ์ฃผ์–ด์ง€๋ฉด ์˜ˆ(1)์ด๋‚˜ ์•„๋‹ˆ์˜ค(0)์„ ์ถœ๋ ฅํ•˜๋Š” ๊ฐ„๋‹จํ•œ ์•Œ๊ณ ๋ฆฌ์ฆ˜ f(x) = 1 : wx+b>0 0 : o..

๊ธฐ๊ณ„ํ•™์Šต๊ณผ ๋ฐ์ดํ„ฐ๋งˆ์ด๋‹

๊ธฐ๊ณ„ํ•™์Šต์˜ ์œ ํ˜• - ์ง€๋„ํ•™์Šต, ๋น„์ง€๋„ํ•™์Šต, ๊ฐ•ํ™”ํ•™์Šต ์ง€๋„ํ•™์Šต feature์™€ ์ •๋‹ตlabel ์ด ์žˆ๋Š” ๋ฐ์ดํ„ฐ ํ•™์Šต์‹œํ‚ค๊ณ  ์ƒˆ๋กœ์šด๋ฐ์ดํ„ฐ(test)๋กœ ์˜ˆ์ธกํ•˜๋Š” ๊ฒƒ ์ž…๋ ฅ ๋ฐ์ดํ„ฐ์™€ ๊ฒฐ๊ณผ๊ฐ’์ด์šฉํ•ด ํŠน์ • TARGET ์˜ˆ์ธกํ•˜๋Š” ๊ฒƒ ์—ฐ์†๊ฐ’์ด๋ฉด ํšŒ๊ท€ ๋ถ„๋ฅ˜ - ์ŠคํŒธ ์‹๋ณ„, ํšŒ๊ท€ - ์‹œ๊ณ„์—ด์ ์ธ ๋ณ€ํ™” ์ง€๋„ํ•™์Šต ์•Œ๊ณ ๋ฆฌ์ฆ˜์˜ ์œ ํ˜• ์˜์‚ฌ๊ฒฐ์ •ํŠธ๋ฆฌ ,KNN,,,, ๋น„์ง€๋„ํ•™์Šต ๊ตฐ์ง‘ ์ฃผ์„ฑ๋ถ„๋ถ„์„ ๊ฐ•ํ™”ํ•™์Šต ๋ฐ์ดํ„ฐ๋งˆ์ด๋‹ = ํ†ต๊ณ„์  ๋ถ„์„ - ๋ฐ์ดํ„ฐ ํƒ์ƒ‰ํ•˜๊ณ  ๋ชจ๋ธ์„ ๊ตฌ์ถ•ํ•˜๋Š”๋ฐ ์ฃผ์•ˆ์  ๊ธฐ๊ณ„ํ•™์Šต๊ณผ ํ†ต๊ณ„์  ๋ถ„์„(๋ฐ์ดํ„ฐ๋งˆ์ด๋‹)์˜ ์ฐจ์ด์  ํŠน์ง• ; ์ •ํ™•ํ•œ ์˜ˆ์ธก์— ์ง‘์ค‘ | ์‚ฌ๋žŒ๋“ค์˜ ์„ ํƒ ์ด์œ  ๋ถ„์„ ๋‚ด๋…„์— ๋ณ‘์›์— ๊ฐˆ ์‚ฌ๋žŒ์˜ ์ˆซ์ž ์˜ˆ์ธก | ์‚ฌ๋žŒ๋“ค์ด ๋ณ‘์›์— ๊ฐ€๋Š” ์ด์œ  ๋ถ„์„ ๊ธฐ๊ณ„ํ•™์Šต์˜ ํ•™์Šต๊ฒฐ๊ณผ๋Š” ๋งค๊ฐœ๋ณ€์ˆ˜ ํ˜น๋ฆ‰ ๊ฐ€์ค‘๊ฐ’์˜ ํ˜•ํƒœ๋กœ ๋‚˜ํƒ€๋‚จ ๊ธฐ๊ณ„ํ•™์Šต์ด๋ž€? ์ž…๋ ฅ๊ฐ’์— ๋Œ€์‘ํ•˜๋Š” ๊ฒฐ๊ณผ๊ฐ’์ด..

Pandas ํŒ๋‹ค์Šค ๊ธฐ์ดˆ - ํ–‰ ๋‹จ์œ„ ๋ฐ์ดํ„ฐ ์ถ”์ถœ

ํ–‰ ๋‹จ์œ„ ๋ฐ์ดํ„ฐ ์ถ”์ถœํ•˜๊ธฐ loc ์ธ๋ฑ์Šค ๊ธฐ์ค€์œผ๋กœ ํ–‰ ๋ฐ์ดํ„ฐ ์ถ”์ถœ iloc ํ–‰ ๋ฒˆํ˜ธ ๊ธฐ์ค€์œผ๋กœ ํ–‰ ๋ฐ์ดํ„ฐ ์ถ”์ถœ loc[์ธ๋ฑ์Šค๋ฒˆํ˜ธ] : -1๊ฐ™์€ ๊ฐ’ ๋„ฃ์œผ๋ฉด ์˜ค๋ฅ˜ print(df.loc[0]) print(df.loc[[0,99,999]]) ํ•œ๋ฒˆ์— ์—ฌ๋Ÿฌ ํ–‰ ์ถ”์ถœ ๋ฐ์ดํ„ฐํ”„๋ ˆ์ž„์˜ ๋งˆ์ง€๋ง‰ ํ–‰ ์ถ”์ถœํ•˜๊ธฐ ๋งˆ์ง€๋ง‰ ํ–‰ ๋ฐ์ดํ„ฐ์˜ ์ธ๋ฑ์Šค๋ฅผ ์•Œ์•„์•ผ ํ•œ๋‹ค. 1. shape[0]์— ํ–‰ ํฌ๊ธฐ (1704)๊ฐ€ ์ €์žฅ๋˜์–ด์žˆ์Œ. number_of_rows=df.shape[0] last_row_index= number_of_rows -1 print(df.loc[last_row_index]) ์‹คํ–‰ ๊ฒฐ๊ณผ country Zimbabwe continent Africa year 2007 lifeExp 43.487 pop 12311143 gdpPercap ..

๋ฐ˜์‘ํ˜•