반응형
헌팅턴 무도병

 

1. 헌팅턴 무도병은  손발이 춤추듯 무의식적으로 움직이는 유전병이다.

 

https://www.sciencetimes.co.kr/nscvrg/view/menu/251?searchCategory=223&nscvrgSn=127353

 

손발이 춤추는 듯한 '헌팅턴 무도병'

최근 한 드라마 속 남자주인공이 쓰러진 이후 의식을 되찾는 과정에서 최근 기억을 잃어버리는 모습이 나왔다. 그의 주치의는 "유전병인 헌팅턴 무도병의 증상 중 하나가 기억상실"이라는 말을

www.sciencetimes.co.kr

 

2. 알츠하이머, 파킨슨병, 루게릭병과 함께 4대 뇌신경 질환으로 통한다.

 

3. 몸이 뒤틀리는 것 이외에도 환각(hallucination), 심각한 정서 변화, 치매 등도 헌팅턴 무도병의 증상이다. 

 

4. 헌팅턴 무도병은 우성유전자에 의해 유전된다. 즉, 아버지나 어머니가 이병을 가진다면 아이들이 이 병에 걸릴 확률이 50퍼센트이다. 

 

5. 구체적으로 왜 50퍼센트인지 모르는 사람들을 위해 설명하기 위해 생명 2로 수능을 본 필자의 얕은 지식으로 이야기해 보자면, 남자는 XY, 여자는 XX인데 자식한테 각각 한 개의 염색체를 주게 된다.

6. X염색체나 Y염색체에 의해 발생하는 유전병도 있다. 클라인펠터 증후군 (XXY)가 대표적이다.

 

https://cuh.chungbuk.ac.kr/client/community/medical/pop_medical.asp?sidx=316

 

충북대학교 u-헬스케어

1. 헌팅톤 병이란? 헌팅톤 무도병(HD)은 상염새게 우성으로 유전하며, 진행성으로 선택적인 부위의 세포들이 파괴되는 퇴행성 질환입니다. 헌팅톤 무도병은 특징적으로 무도증(chorea)및 치매증상

cuh.chungbuk.ac.kr

 

7. 그런데 헌팅턴 무도병은 X염색체나 Y염색체에 의해 발생하는 질병은 아니다. 

 

8. 4번 상염색체의 단완 16.3 부위인 ‘헌팅톤 유전자’의 돌연변이에 의해 발생한다.

 

9. 아버지나 어머니 중 한 명이 헌팅턴 무도병을 발현시키는 부분에 돌연변이가 있고, 그 상 염색체가 자식한테 들어가게 된다면 나머지 부모님의 상염색체와 관련 없이 헌팅턴 무도병이 발현되게 되는데 이것이 우성에 의해 유전되는 유전병의 특징이다. 즉, 내가 헌팅턴 무도병을 일으키는 돌연변이를 가지고 있는 상염색체가 하나라도 있으면 바로 걸리는 것이다.

 

10. 이 질병은 10만명당 5명 정도 걸리는 병이고, 10년에서 30년 동안 천천히 발현되는데 3 40대에 그 증상이 나타나게 된다.

 

11. 정상적인 유전자는 이 CAG 염기가 28회 이하로 반복되는데 비해, 돌연변이 유전자에서는 40회 이상 CAG 삼핵산염기서열이 반복되는 것으로 나타난다고 한다.

 

12. 우리나라에는 2022년 기준 340명의 환자가 있다.


https://kormedi.com/2751511/

 

“헌팅턴병 치료 처음으로 성공”...도대체 어떤 질환 이길래? - 코메디닷컴

퇴행성 뇌질환인 헌팅턴병을 성공적으로 치료한 임상시험 결과가 최초로 나왔다. 새로운 치료법은 헌팅텅병의 진행을 75% 늦추는 것으로 나타났다. 사진=게티이미지뱅크 희귀 퇴행성 뇌질환인

kormedi.com

 

13. 유전자 치료제기 때문에 기술적 난이도도 높고, 실험 방식도 전통적인 실험 방식과 다르며 시장규모도 작기 때문에 이것을 개발하려는 회사가 많지 않다.

 

14. 헌팅턴 무도병을 치료하기 위해서 노력을 하지 않은 것은 아니다. Roche & Ionis Pharmaceuticals의 Tominersen은 2021년 3월 3상 임상시험(GENERATION HD1)에서 투약이 중단되었다.

 

15. 3상에서 위약보다 효과가 없었고, 8주마다 투약한 그룹은 오히려 운동 기능과 인지 기능이 더 악화되었고, 16주마다 투약한 그룹도 위약 대비 전반적인 개선 효과가 없었다.

 

16. Novartis의 branaplam은 mRNA splicing modifier로 작동하는 경구용 소분자 치료제였다. 그러나 이 마저도 2022년 8월 2b상 VIBRANT-HD 시험에서 투약이 일시 중단되었다.

 

17. 위의 약을 투여받은 사람들에게서 임상시험 참여자 일부에서 말초신경병증(peripheral neuropathy) 징후가 나타났다.

 

18. Wave Life Sciences는 2021년 3월 두 개의 ASO 약물인 WVE-120101과 WVE-120102의 개발을 중단했다.

 

19. 위의 약은​ PRECISION-HD1 및 HD2 1b/2a상 임상시험에서 돌연변이 헌팅틴 단백질(mHTT) 감소 효과가 임상적으로 유의미하지 않았다.

 

20. Sage Therapeutics - SAGE-718 (Dalzanemdor), Voyager Therapeutics - VY-HTT01, Triplet Therapeutics - TTX-3360 등등 대형 제약사 이외에도 헌팅턴 무도병을 치료하기 위해서 뛰어들었으나 "모두" 실패했습니다.

 

 

UNIQURE의 등장

 

21. 2025년 9월 헌팅턴 무도병 치료제를 개발하는 유니큐어에서 치료제에 대한 3년 추적데이터(2상)를 내놓았다.

 

22. 퇴행성 뇌질환인 헌팅턴 무도병의 진행을  최대 75퍼센트까지 지연시킬 수 있다는 데이터가 나왔다.

 

23. 실험을 진행한 영국 유니버시티칼리지 런던 헌틴텅병센터 연구팀의 사라 타브리지 교수는 BBC와의 인터뷰에서 “이는 헌팅턴병 환자가 1년 안에 겪는 퇴행성 감소가 치료 후에는 4년이 걸리게 돼 수십 년 동안 양질의 삶을 누릴 수 있다는 것을 의미한다”라고 말했다.

위키백과

 

(이 분이 헌팅턴 무도병의 치료에 일조한 사라 타브리지 박사님이시다. 기술의 발전으로 앞으로도 더 많은 치료제를 통해 더 많은 환자의 꿈을 되찾아주면 좋겠다.)

 

24. 유니큐어의 헌팅턴 무도병 치료제인 AMT-130은 AAV5(Adeno-Associated Virus 5)라는 무해한 바이러스를 이용한 유전자 치료제다.

 

25. 위에서 설명했듯이 헌팅턴병의 원인은 HTT 유전자의 CAG 반복 확장으로 인한 병리성 헌팅틴 단백질 생성이다.

 

26. AMT-130의 마이크로 RNA는 이 헌팅틴 단백질을 만드는 메시지 지시문(mRNA)에 결합하여 이를 표적화하고, 세포로 하여금 정상 및 변이 헌팅틴 단백질 모두를 덜 생산하도록 한다.

 

27. AAV5는 혈액뇌장벽을 통과하지 않으므로, 치료는 뇌에 직접 주입되어야 한다.

 

28. 뇌를 뚫는 수술장비는 ClearPoint Neuro(CLPT)가 개발했다.

 

29. 총 29명의 헌팅턴병 환자를 대상으로 임상을 진행했고, 수술시간은 12~18시간이 걸린다.

 

30. 이때 유효물질을 넣기 위해 체강, 기관, 혈관 등에 삽입하여 체액 배출이나 약물 주입 등의 목적으로 사용되는 얇은 관인 카테터가 사용된다. 

https://www.vjneurology.com/amt-130/

 

AMT-130: the first gene therapy on the horizon for Huntington’s disease?

The first interim data has been published from a Phase I/II trial testing the safety and tolerability of AMT-130. If successful, this would be the first gene therapy for Huntington’s disease. What got us to this point and what comes next?

www.vjneurology.com

 

 

31. 임상은 2020년 6월 처음으로 시작했고, 미국 다기관 임상시험으로 시작되었으며, 초기 2명 환자 후 90일 관찰 후 데이터 안전 모니터링 위원회(DSMB) 회의를 거쳐 진행 여부 결정했다.

https://huntingtonstudygroup.org/hd-insights/vol24_amt-130/

 

Featured Story: FIRST TWO PATIENTS TREATED IN UNIQURE PHASE I/II CLINICAL TRIAL OF AMT-130 | Huntington Study Group

Press Release June 19, 2020 Milestone Marks the First-in-Human AAV Gene Therapy Trial for Huntington’s Disease uniQure N.V., a leading gene therapy company advancing transformative therapies for patients with severe medical needs, has announced that the

huntingtonstudygroup.org

 

32. 2021년 12월, 첫 4명 환자의 12개월 데이터가 발표되었다.

 

https://hdsa.org/news/uniqure-announces-clinical-update-on-first-patients-in-phase-i- ii-clinical-trial-of-amt-130-gene-therapy-for-the-treatment-of- huntingtons-disease/#

 

uniQure Announces Clinical Update on First Patients in Phase I/II Clinical Trial of AMT-130 Gene Therapy for the Treatment of Hu

uniQure Announces Clinical Update on First Patients in Phase I/II Clinical Trial of AMT-130 Gene Therapy for the Treatment of Huntington’s Disease ~ Treatment was well tolerated with no significant safety issues related to AMT-130 in first two treated pa

hdsa.org

 

33. 2021년 10월, 유럽 개방형 1b/2상 임상(NCT05243017)이 시작되었고, 2025년 9월에 36개월 추적 데이터가 발표되게 된 것이다.

 

34. 고용량 투약군은 17명, 저용량 투약군은 12명이다.

 

35. 결과는 다음과 같다. cUHDRS(복합 헌팅턴병 등급 척도): 75% 질병 진행 완화 (p=0.003) - 통계적으로 유의미함

​ 고용량군: 평균 -0.38점 변화 vs 외부 대조군: -1.52점 변화

​ 총 기능 용량(TFC): 60% 진행 완화 (p <0.05) - 이는 일상생활 기능 유지를 의미

 인지 기능(SDMT): 88% 진행 완화​ 신경필라멘트 경쇄(NfL): 기준선 대비 8.2% 감소 - 뇌세포손상 감소를 시사

 

https://en.hdbuzz.net/the-first-domino-falls-amt-130-gene-therapy-slows-huntingtons-i n-landmark-trial/

 

The First Domino Falls: AMT-130 Gene Therapy Slows Huntington’s in Landmark Trial – HDBuzz

UniQure has announced positive top-line results from its Phase I/II trial of AMT-130, a one-time gene therapy being tested in people with Huntington’s disease (HD). Topline data is a summary of the key results from a study that is released quickly after

en.hdbuzz.net

 

 

36. 저용량보다 고용량에서 더 유효하게 작용한다는 것도 보여주었기 때문에 용량 의존적 효과 가능성 또한 보여주었다.

 

출처: 인베스팅

 

37. 참고로 2024년에 발표된 24개월 데이터는 다음과 같았다.

고용량: cUHDRS에서 80% 진행 완화 (p=0.007) NfL: 11% 감소 (기준선 대비), 자연 병력 대조군은 26% 증가

 

38. 9월 24일에 데이터가 발표되고 주가는 247프로가 올랐다.

 

39. 약값의 가격은 유전자 치료제의 가격을 고려하면 몇 십억은 우스울 가능성이 높다.

 

40. 이 결과만 보았을 때 빅파마들의 우선인수후보로 손색이 없고, 이 때문에 주가는 계속해서 올랐다.

 

 

주가는 근데 반토막이 났는데?

 

 

41. 지금 고점대비 50프로 이상 떨어져 있는데 그 이유를 설명해 보겠다.

 

42. 심각한 부작용이 있던 것도 아니다. 2022년 12월 이후 심각한 이상반응은 없었다.

https://www.neurologylive.com/view/gene-therapy-amt-130-meets-endpoints-huntington-study-fda-submi ssion-follow

 

Gene Therapy AMT-130 Meets End Points in Huntington Study; FDA Submission to Follow | NeurologyLive - Clinical Neurology News an

Data from the phase 1/2 program (NCT0543017, NCT04120493) of uniQure’s investigational gene therapy AMT-130 showed that the high-dose cohort met its primary end point, leading to statistically significant slowing of disease progression in patients with H

www.neurologylive.com

 

43. 위에서 말했듯이 이 실험은 뇌를 뚫어야 하기 때문에 전통적인 RCT(랜덤방식)으로 임상실험을 진행하는 것이 불가능하다.

 

44. 상식적으로 생각해 보자 위약을 실험하기 위해 여러분의 뇌를 뚫는다는 것 자체가 윤리적으로 말이 안 된다.

 

45. 그래서 외부 대조군 방식을 사용하였다. 2024년 12월 10일에 FDA는 이 방식을 승인했다.

 

https://www.hdyo.org/a/840-uniqure-update-on-fda-discussions

 

Huntington's Disease Youth Organization - uniQure Update on FDA Discussions

Support HDYO HDYO is the only organization who focus solely on supporting young people impacted by HD around the world. Will you help us?

www.hdyo.org

 

https://www.hdyo.org/a/840-uniqure-update-on-fda-discussions

 

46. 이후 FDA는 2025년 4월에는 혁신의약품으로 지정을 했다.

https://european-biotechnology.com/latest-news/amt-130-gets-fda-breakthrough-therapy-designation/

 

AMT-130 gets FDA breakthrough therapy designation - European Biotechnology Magazine

Amsterdam-based uniQure NV’s gene therapy candidate AMT-130 has been granted FDA Breakthrough Therapy Designation for the treatment of the neurodegenerative Huntington’s disease.

european-biotechnology.com

 

 그 전의 타임라인을 빠르게 살펴보겠다.

 

47. 그 전의 타임라인을 살펴보자면, 2017년 10월에는 희귀 질환 치료제를 인정받아 시장 독점권 7년을 받았다.

 

48. 2019년 4월에는 Fast Track승인을 받았다

https://forbion.com/news-insights/news/uniqure-receives-fda-fast-track-designation-for-amt-130-gene-th erapy-for-the-treatment-of-huntington-s-disease/

 

uniQure Receives FDA Fast Track Designation | Forbion

uniQure N.V. announced that the FDA has granted Fast Track designation for AMT-130, the Company’s gene therapy candidate for treatment of Huntington’s disease.

forbion.com

 

49. 2024년 5월에는 RMAT으로 지정되었다.

https://www.rarediseaseadvisor.com/news/fda-grants-rmat-designation-gene-therapy-hd/

 

FDA Grants RMAT Designation to Gene Therapy for HD

The FDA granted Regenerative Medicine Advanced Therapy designation to the gene therapy AMT-130 for the treatment of Huntington disease (HD), a study found.

www.rarediseaseadvisor.com

 

내용 이어서..

 

50. FDA랑 합의한 외부 대조군 방식이 무엇이냐면 외부 대조군은 과거에 수집된 독립적인 데이터베이스의 환자들을 현재 임상시험 참여 환자들과 비교하는 방식이다.

 

51. 그런데 FDA가 11월 3일 날 말을 갑자기 바꾼다. " 외부 대조군은 적합하지 않다"

 

https://www.biospectator.com/news/view/26842

 

유니큐어, ‘AAV’ FDA 입장 돌변..“허가신청 불투명”

우려하던 일이 실제로 벌어졌다. 업계의 기대를 모았던 유니큐어(uniQure)의 헌팅턴병(HD) 타깃 AAV 유전자치료제 에셋의 허가 가능성이 갑자기 불투명해졌다.미국 식품의약국(FDA)이 해당 AAV 유전자

www.biospectator.com

 

52. 일단 유전자치료에 대해 승인을 내리는 곳은 CBER이다. 이곳의 소장이 비나이 프라사드이다. 프라사드가 부임했을 때 XBI의 지수가 4프로가 빠지기도 했다.

 

53. 이 사람이 이전부터 백신과 세포 및 유전자치료제, 가속승인 등에 매우 회의적인 의견을 피력하는 사람이었기 때문이다.

 

https://www.biospectator.com/news/view/25034

 

사렙타 등 유전자 "타격"..FDA 프라사드 소장 '여파'

미국 식품의약국(FDA)의 바이오의약품평가·연구센터(CBER) 신임 소장으로 비나이 프라사드(Vinay Prasad)가 임명됐다는 소식에 지난 6일(현지시간) 사렙타 테라퓨틱스(Sarepta Therapeutics)

www.biospectator.com

 

54. 요약하자면 이거다. Makary(현 국장), 그전 담당자 피터 막스든지 간에 지금 소장인 프라사드하고 합의한 거가 아니니까 무효화하겠다 이런 거고, 그래서 주가가 박살이 난 거다.

 

55. PRE- BLA의 회의록은 회의시작하고 30일 뒤에 공개되므로 11월 3일 날 FDA의 의견을 유니큐어에 전달한 것을 보면 곧 유니큐어가 회의록을 받게 될 거 같다. maybe 11월 말

 

 

갑자기 또 입장 변화?

56. 그런데 2025년 11월 11일에 Martin Makary(FDA 커미셔너)와 Vinay Prasad(CBER 디렉터)는 2025년 11월 12일 수요일에 New England Journal of Medicine에 " Plausible Mechanism Pathway "논문을 발표했다.

https://www.fiercebiotech.com/biotech/fdas-new-plausible-mechanism-pathway-accelerate-bespoke-gene-ed iting-therapies

 

 

57. 논문의 내용은 다음과 같다. 희귀·초희귀, 치명적 질환에서 RCT(무작위 대조 임상시험)가 사실상 불가능한 상황에서, 다음 5가지가 충족되면 조기 승인을 가능하게 하자는 것이다.

 

58. 저 논문이 발표된 이상 RCT가 불가능한 상황에서 다른 방식으로 평가하는 게 가능한 것이 공식화된 것이다.

 

59. AMT-130은 다음을 모두 갖추고 있다: 

희귀 적응증에 대한 높은 미충족 의료 수요 ✓ 

질병의 정의된 생물학적 원인(HTT 유전자 침묵) 표적 ✓

 동물 모델에서 표적 관여 확인 ✓ 

여러 연속 환자의 명확한 임상 개선 (75% 질병 진행 완화) ✓ 

즉, 명백히 모든 Plausible Mechanism Pathway 기준을 충족한다."

 

60. 정확하게 이 시점에서 나온 저 논문은 명백하게 유니큐어를 겨냥한 것이라고 생각한다. 그러나 FDA는 " Plausible Mechanism Pathway"를 공식화하기 전까지 유니큐어에게 특혜라는 의혹을 제거하기 위해서 그런 것이 아닐까?라는 것이 시장의 생각이다.

 

61. 이 영향인지 11월 11일에 17.93프로가 올랐다.

 

 

정리

 

62. 필자는 이 약이 허가를 받게 된다면 2배의 주가 상승은 우습다고 생각한다.

 

63. 그러나 리스크가 크다. 만약 RCT방식을 사용하라고 한다면 처음부터 임상을 다시 해야 된다. 

 

64. 추가적으로 1년 정도 추적데이터를 요구하는 것이 그나마 베스트일 거 같다.

 

65. FDA가 BLA 거부 의사를 표현한 이상 그대로 수용하는 것은 불가능에 가깝지 않을까 싶다.

 

66. 결론적으로 프라사드 이 사람이 유전자치료제에 원래부터 부정적인 입장이었던 것이 문제다. 

 

67. CDER 소장으로 새로 부임한 리처드 파즈 더 가 신약 승인에 우호적인 편인데 프라사드 잘 설득해 주면 좋겠다. 

 

68. 헌팅턴 무도병 환자를 가족으로 둔 가족들과 정치권에서 압박을 하고 있다는데 이게 먹힐지는 모르겠다. 만약 이게 먹혔으면 웬만한 신약들이 다 승인받았지..

 

69. 일단 안전성에서 어느 정도 검증된 것이 크다.

 

프라사드야!! 사람은 살려야 될 거 아니니..
모더나의 MRNA 치료제가 MRNA 시장의 붐을 일으켰듯이 이 약이 트리거가 되어 앞으로 여러 뇌질환을 정복해 나갈 것이라고 굳게 믿고 있겠다.
반응형
반응형

https://hanglestocks.tistory.com/100

희토류 1편 내가 미국 희토류 주식을 보는 이유(metc,mp,crml,usar)그리고 광물자립(tmc)

포트폴리오 전체에서 희토류가 차지하는 비중이 대략 30프로 정도 되는 거 같다. 단일 종목으로는 최대종목은 아니지만 단일 섹터로는 포트폴리오 내에서 엎치락뒤치락하면서 1번째 2번째 왔다

hanglestocks.tistory.com

 
희토류에 대해서 예전에 쓴 내용인데 저 때도 너무 오르는 중이라 지금 안 쓰면 고점에서 글 쓰겠다 싶어서 썼단 기억이 난다. 저때 7불이었고, 나는 4불대부터 샀다 팔았다 하면서 리스크 관리하면서 매매 중이었다. 그 당시 카카오톡 오픈채팅방은 한 개밖에 없었고, 30명 정도인원밖에 없었는데 지금은 카카오톡에 쳤을 때 나오는 두 톡방 인원 총합 200명 정도 되는 거 같다. 한 때 300명 이상이었던 거 같은데 많이 빠진 거 같다. 나는 이처럼 사람들의 관심을 받기 시작하는 걸 중요하게 본다. 왜 중요하게 보는지는 다른 글에 있다.

대충 요약하자면 시장의 관심도가 완전히 죽은 것도 아니면서 주도주가 될 가능성이 있어보인다. 그리고 crml은 그중에서도 대장이다.
 
 

그전에 쓴 글 요약+ 희토류 산업

1. 전 세계의 희토류의 70퍼센트는 중국에서 생산하고 있고, 희토류를 가공하고 정제하는 분야는 중국이 90프로 이상을 가져가고 있다.
 
2. 미국에서 채굴은 mp머트리얼즈가 하고 있고, 경희토류는 미국에서도 가공을 하지만 아직까지 중 희토류는 미국에서는 정제하지 못한다. 
 
3. 당연한 거지만 모든 광물들은 캐낸 다음에 그걸 분리시켜서 순도 높게 가공하는 과정이 필요하다. 
 
4. 희토류는 주기율표상 란타넘(La)부터 루테튬(Lu)까지의 15개 란타넘족 원소와 스칸듐(Sc), 이트륨(Y)을 포함하는 총 17개 화학 원소를 통칭한다.
 
5. 이 17개 원소만이 흔히 희토류라고 부르는 것이고, 이 희토류는 또 경희토류와 중 희토류로 나뉜다.
 
6. 경희토류는 주로 원자번호 57번(란타넘)부터 63번(유로퓸)까지의 란타넘족 원소를 지칭하며, 이에 속한 원소는 란타넘(La), 세륨(Ce), 프라세오디뮴(Pr), 네오디뮴(Nd), 프로메튬(Pm), 사마륨(Sm), 유로퓸(Eu) 등이다. 또한 중 희토류는 원자번호 64번(가돌리늄)부터 71번(루테튬)까지의 란타넘족 8종과, 이트륨(Y), 경우에 따라 스칸듐(Sc) 등을 포함합니다. 대표적으로 가돌리늄(Gd), 터븀(Tb), 디스프로슘(Dy), 홀뮴(Ho), 어븀(Er), 툴륨(Tm), 이터븀(Yb), 루테튬(Lu), 이트륨(Y) 등이 해당한다.
 
7. 경희토류는 매장량이 많고, 값이 싸다. 그런데 지금 중국에서 수출 규제를 해서 난리난 부분은 중 희토류이다. 이 중 희토류가 영구자석을 만들 때 쓰인다.
 
8. 영구자석은 외부 전원이나 전기 에너지 공급 없이도 스스로 강한 자기장을 영구적으로 유지하는 자석이다. 네오디뮴, 사마륨 코발트, 페라이트 등이 대표적인데 보통 ir을 듣다 보면 네오디뮴이 주요 원자재인 것 같다.
 
9. 현재 중국이 희토류를 규제하는 바람의 서방국가들이 타격을 받고 있으며 희토류 가격은 2배 급등했다.
 

출처: trading economics

 
10.  현재 희토류 시장은 중국이 가격 결정권을 쥐고 쥐락펴락 할 수 있다. mp 머트리얼즈는 경희토류 중심이라 수익성이 높은 희토류가 아니다.
 
11. 그런데 지금 usar, metc가 주목받는 건 각각 네오디뮴, 스칸듐 비율이 높은 중 희토류 광산이기 때문이다. crml은 내부수익률 자체가 노다지라서 어느 정도 mix 돼있는지 안 따지고 있긴 하다.
 
12. 참고로 말하자면 crml 같은 경우에는 오스트리아의 리튬광산도 가지고 있는데 리튬 가격이 워낙 저렴해져서 크게 관심을 두지 않았는데 요즘 catl 리튬광산이 허가가 지연됨에 따라 가격이 상승추이를 보이고 있어서 이 부분도 관심 있게 보고 있다.
 
=> 참고로 아직도 재개가 안되고 있는 중이다. 이 광산은 전체 리튬 생산량의 3프로를 차지한다.
https://m.ekn.kr/view.php?key=20251107028034824
 

CATL, 中 젠샤워 광산 생산 재개 추진…리튬 가격 다시 떨어지나

세계 최대 배터리기업 중국 CATL이 중단됐던 리튬 광산의 재가동을 위한 절차에서 진전을 보이고 있다고 블룸버그통신이 7일 보도했다. 이 광산은 글로벌 공급에 큰 비중을 차지하고..

m.ekn.kr

 
13. 중국은 미국뿐만 아니라 EU에도 희토류 수출 제재를 가하고 있다. 그래서 EU에서도 희토류 가격 하한선이야기가 나오고 있다. https://marketin.edaily.co.kr/News/ReadE?newsId=03486646642301104

中, 희토류 수출 통제 다시 강화…EU 기업들 직격

중국이 희토류 수출 통제를 다시 강화하며 유럽 기업들이 심각한 피해를 입고 있는 것으로 전해졌다. (사진=AFP)17일(현지시간) 파이낸셜타임스(FT), CNBC 등에 따르면 중국 주재 유럽연합(EU) 상공회

marketin.edaily.co.kr

 
14. 트럼프는 미국 제조업을 다시 부흥시키는 것을 최우선 목표로 삼고 있다. 그런데 문제가 있다. 스마트폰, 자동차, 군수장비 등 모든 곳에서 희토류는 쓰인다. 
 
15. 기업들도 희토류 공급망 안정화를 위해서 미국에서 희토류를 최대한 공급받으려는 움직임이 나오고 있다. mp 머트리얼즈가 납품 계약을 맺은 곳이 애플이고, usar도 12건의 MOU를 체결한 상황이다.

https://www.impacton.net/news/articleView.html?idxno=15861

애플, 美 MP와 5억달러 계약…재활용 희토류도 ‘현지 조달’로 전환 | 임팩트온

애플이 제품에 사용되는 재활용 희토류의 공급망까지 미국 내로 전환하기 위해 MP머티리얼즈(MP Materials)와 5억달러(약 8000억원) 규모의 장기 계약을 체결했다. 텍사스에는 전용 자석 생산라인이,

www.impacton.net

 
 
16. 당연히 기업들은 원자재의 가격도 중요하지만 공급망의 안정성을 중요하게 여긴다. 그런데 중국이 이걸 깨고 있다.

17. 트럼프 행정부가 들어선 후 중국하고 관세전쟁을 했었다. 세 자릿수까지 관세가 올라갔다가 사그라들었는데 트럼프는 여기서 중국 한데 깨갱할 수밖에 없었다. 왜냐면 희토류 때문이다.
 
18. 최근에도 희토류를 제제한다고 하니 트럼프가 강경하게 나갔고, 지금은 희토류 공급 합의를 보았다.
https://news.jtbc.co.kr/article/NB12270056

중국, 희토류 수출통제 내년 11월 10일까지 ‘1년 유예’ 확인

중국이 지난달 미·중 정상회담에서 합의한 희토류 등 수출 통제 강화 조치 1년 유예 방침을 공식 발표했습니다. 중국 상무부는 현지시간 7일 홈...

news.jtbc.co.kr

 
19. 그런데 전부 다 합의된 것이 아니라 갈륨은 합의를 하지 않았다는 거 같기도 하다. 
 

링크드인
 
 

 20. LPTH 회사가 germanium 대체물질로 black diamond라는 걸 미해군이랑 공동 개발해 렌즈 만들 때 써서 보고 있는 회사 있데 여기 CEO가 링크드인에 이렇게 올렸다.
 
21. 흠 근데 찾아보니 갈륨도 수출제한을 일단은 푼거 같긴 하다. 그런데 알아둬야 할 것이 이것이 과거로 돌아간다는 것이 아니라 중국이 9월에 발표한 허가증을 안 내주겠다는 것이 해소가 된 것이다.
https://www.politico.com/news/2025/11/01/white-house-china-trade-truce-00632759

White House discloses details of China trade truce

A fact sheet outlines Beijing’s pledges to address key irritants in the U.S.-China relationship.

www.politico.com

 
 
22. 사실 CEO가 거짓말을 치진 않을텐데 갈륨만 따로 뭔가 있는 거 같기도 하고 모르겠다.
 
23. 4월 통제 조치는 별도로 2025년 4월에 부과된 희토류 통제(7가지 희토류에 대한 강화된 라이선스 요구)는 다루어지진 않았다. 희토류 규제 ing~~ 허가증만 일단 주겠다는 소리이다.
 
24. 7가지 희토류는 스칸듐, 이트륨, 사마륨, 가돌리늄, 테르븀, 디스프로슘, 루테튬으로 이들에 대한 허가증은 발급해 주지만 복잡하게 만드는 것이다.
https://www.rff.org/publications/issue-briefs/the-strategic-game-of-rare-earths-why-china-may-only-be-in-favo r-of-temporary-export-restrictions/
 
 
25. 참고로 metc 광산에 스칸듐이 많다. 
 
26. 중국 희토류를 공급받지 못하면 미국 내 스마트폰, 자동차 등등 대부분의 첨단 산업을 담당하는 공장이 셧다운 될 것이다. 특히 영구자석은 필수적이다.
 
27. usar을 지켜보는 이유가 이미 영구자석 공장은 지어났기 때문에 캐고 가공까지 수직계열화를 이룰 수 있기 때문이다. 4분기에 확정타당성보고서가 나올 텐데 그거보고 중 희토류 비중이 어느 정도 일지 봐야 될 거 같다.
 
https://www.joongang.co.kr/article/25343288

트럼프도 두손 든 中희토류, 車산업에 얼마나 중요하길래 | 중앙일보

중국이 희토류 수출 제한을 해제하는 대신 미국은 중국 유학생 비자 취소 조치를 풀기로 했다. 11일(현지시간) 월스트리트저널(WSJ) 등 외신에 따르면 중국은 자동차를 비롯한 미국 제조업체에 대

www.joongang.co.kr

 
 
28. 트럼프는 이를 계기로 필수광물 자립을 하기로 했고, OBBB법안 즉 one big beautiful bill 법안에 필수광물 자립을 위한 지원금을 명시했다.
 
29. 국방부에만 해도 군수목적 필수 광물을 위해 7.5B을 지원하는 법안이며 2B가 여기서 더 추가될 수 있다. 국방부가 mp머트리얼즈의 최대주주가 된 것도 미국정부의 의지를 보여준다.
 
https://discoveryalert.com.au/news/one-big-beautiful-bill-2025-critical-minerals-funding/

One Big Beautiful Bill: Critical Minerals Funding Unlocked for US Security

Discover how the One Big Beautiful Bill revolutionizes critical minerals funding to strengthen domestic supply chains and security.

discoveryalert.com.au


30. 당연히 이 정도로 희토류에 있어 중국의 독점성이 무너지진 않는 건 당연하다. 이미 미중 관세 합의를 보류하면서 미국은 중국의 희토류 규제를 EU보다는 덜 받는 상황이지만 EU처럼 되지 말라는 법은 없다.
 
31. 중국은 자신이 불리하다고 생각이 들 때마다 앞으로도 희토류 카드를 가져와서 협박할 것이다. 
 
32. 서방국가들이 생산한 희토류들은 중국과 단가싸움이 불가능하다. 50프로 이상 비싸다고 보면 된다.
 
33. 트럼프 행정부는 희토류 업체들에게 수익성을 보장해 주기로 마음먹었다.
 
34. 경희토류 비중이 높은 mp를 최저가 보장을 해줬는데 앞으로 채굴을 시작할 중 희토류 업체들에게 최저가 보장을 안 해줄 이유가 없다고 생각한다.
 
https://www.hankyung.com/article/2025080159197

"무조건 중국보다 싸게" 미국, 희토류 최저가 보장 조치 확대

"무조건 중국보다 싸게" 미국, 희토류 최저가 보장 조치 확대, 미국, 희토류 생산 속도전 "애플·MS도 불렀다"

www.hankyung.com

 
 
35. 2022년에 희토류 업체들이 채굴을 하겠다고 뛰어들면서 너도 나도 계획을 내놓았던 기억이 있다. 희토류뿐만 아니라 리튬을 비롯한 광물 회사들 포함이다. 그런데 이 광물가격이 떨어지면서 수익성이 안 나와서 그때 그 기업들 중에 실제로 채굴을 시작한 기업은 아직도 없다.
 
36. 희토류가 캐기 힘들어서 못 캔 것이 아니다. 수익성이 나와야지 캐는데 중국하고 비교했을 때도 채굴비용이 비싼데 희토류 가격이 곤두박질쳤기 때문에 투자를 받기도 어려웠던 것이다.
 

trading economics

 
 
37. 이번 정부에서는 환경문제, 투자문제, 수익성 문제를 매우 빠르게 해결해주고 있다.
 
38. 수익성문제는 최저가 보장(중국보다 2배)으로 환경문제는 metc 재허가를 예비타당성보고서 뜨고 몇 주 만에 받고, metc 축하행사에 미국 에너지부장관까지 온 거 보면 환경문제는 별 신경 안 쓰는 거 같고, 투자문제는 OBBB법안에 명시해 놓았다.
 
39. 당장 내년만 돼도 usar, metc가 추가적으로 희토류를 캐기 시작할 거 같다. 
 
40. 우리는 트럼프 행정부 때 미국이 순에너지 수출국으로 바뀌었다는 것을 기억할 필요가 있다. 
 
41. 중국과의 분쟁이 뜨고 나서 필수광물에 대한 지분투자 속도가 빨라졌다. LAC TMQ 지분 투자를 완료했고, CRML, USAR도 논의 중인 거 같다.
 
42. CRML은 아니라고 하는데 CRML이 없으면 미국은 디스프로슘 자립을 하지 못한다.
 

이어서

 
43. European Lithium (ASX: EUR)와 Sizzle Acquisition Corp (SPAC)이 사업 조합 계약 체결
 
44. 2024년 2월 28일: NASDAQ 상장 개시 
 
45. Wolfsberg 리튬 프로젝트와 Tanbreez 희토류 프로젝트 진행
 
46. 유럽 최초의 정말 허가된 스포듀먼(spodumene) 리튬 광산으로 연간 10,500톤의 리튬 농축액 생산 목표
 
47. 리튬 10500톤이면 현재 1톤에 80400 CNY인 것을 기준으로 1위안 = 약 0.14046달러이므로 1억 1858만 달러 정도 매출이 예상된다.
 
48. 3대 희토류 광산이라고 하면 중국의 바오터우, 미국의 마운틴 패스, 호주의 마운트 홀트이다.
 
49. 애플 아이폰엔 0.24g, 테슬라 전기차 한 대엔 520g, 미국 F-35 전투기 한 대엔 408㎏, 핵잠수함엔 무려 4.2t의 희토류가 사용된다.
 
https://www.donga.com/news/Economy/article/all/20250418/131447904/1

‘희토류 강국’이었던 미국, 어쩌다 중국에 약점 잡혔나[딥다이브]

미국과 중국의 관세전쟁이 한창인 가운데, 중국이 미국의 약한 고리를 건드렸죠. 희토류 수출을 통제한다고 발표한 건데요. 그러자 미국이 화들짝 놀랐습니다. 중국산 희토류 공급이 막히면 미

www.donga.com

 
50. 미국의 마운틴패스광산이 (1965~1995년) 전 세계 최대 희토류 생산지였다.
 
51. 그러나 이걸 포함해도 중국 4400만 t 매장량에 비하면 미국은 190만 톤이다.
 
52. 중국의 바오터우의 경희토류 비율은 92퍼센트, 마운틴패스는 95퍼센트, Mount Weld는 70프로이다.
 
53. 나머지는 중 희토류이고, 이처럼 호주가 디스프로슘이 있는 중희토류 광산을 보유하고 있다.
 
54. 호주 전체의 희토류 매장량은 570만 톤이다.
 
https://dream.kotra.or.kr/kotranews/cms/news/actionKotraBoardDetail.do?SITE_NO=3&MENU_ID=80&CONTENTS_NO=2&bbsGbn=242&bbsSn=242&pNttSn=233482

불안한 공급망 속, 호주 희토류가 글로벌 판을 흔드나?

호주는 단순한 광물 채굴을 넘어 가공·제조까지 아우르는 통합 운영 체제로 전환하며 글로벌 희토류 시장에서 영향력을 강화하고 있다. 환경·ESG 기준을 앞세

dream.kotra.or.kr

 
55. 그린란드는 숫자부터 다르다. 그린란드에 가장 큰 광산이라고 하면 두 개이다. 한 개는 크바네펠트이고, 한 개는 탄브리즈이다.
 
56. 크바네펠트는 매장량이 많지만 탄브리즈는 중 희토류가 많다.
 
57. 쿠바나펠트쪽 채굴권을 가진 나라가 중국 쪽 기업인데 그린란드에서 제동을 걸었고, 선거에서 미국 쪽 사람이 이겼기 때문에 계속해서 올스톱될 거 같다.
 
57. 아까 호주가 희토류 매장량이 570만 톤이라고 했는데 탄브리즈 하나에서만 희토류 산화물이 2820만 톤이다.
 
58. 앞에서 경희토류 비율이 다른 광산은 90프로 이상이라고 했는데 탄브리즈 광산은 중 희토류 비율이 27프로이다.
 
https://www.theguru.co.kr/news/article.html?no=72350

[더구루] 세계 최대 규모 그린란드 희토류, 호주 기업에 팔렸다

[더구루=정등용 기자] 세계 최대 규모 그린란드 희토류 매장지가 호주 유럽피언 리튬(Australian European Lithium) 스펙상장사 크리티컬 메탈스(Critical Metals)에 매각됐다. 크리티컬 메탈스는 10일(현지시

www.theguru.co.kr

 
59. 초기 생산량을 10만 톤으로 예상하고 있는데 2016년 기준 중국이 10만 5천 톤을 수출했다. 
 
https://www.quora.com/What-country-has-the-largest-deposits-of-rare-earth-element-ore s
 
60. 지금 탄브리즈 전체 면적의 1퍼센트만 타당성 조사를 하고 있는데 PEA에 따르면 이 면적의 NPV가 2.8B~3.6B이다. IRR은 180프로이다. 
 

crml ir

 
61. 4497만 톤에 대한 희토류 원소에 대해서 측정한 수치이며 47억 톤의 1프로에 해당하는 수치이다.
 
62. 초기생산량은 85000톤이고 40000만 톤까지 늘릴계획이다. 

출처:https://evrimagaci.org/gpt/critical-metals-stock-soars-as-us-eyes-greenland-stake-507459

 
63. 참고로 2023년 기준 전 세계 희토류 생산량은 35만톤이다. 전세계 희토류 공급망을 이 친구 혼자서 담당할 수 있다.
 

우리나라에도 희토류가 있다?

한국무역협회에서 제공하는 국내 및 해외 무역 관련 주요 이슈 및 최신 동향

kita.net

 

출처: https://www.kita.net/board/totalTradeNews/totalTradeNewsDetail.do?no=90123#:~:text=2023%EB%85%84%20%EA%B8%B0%EC%A4%80%20%EC%A0%84%20%EC%84%B8%EA%B3%84%20%ED%9D%AC%ED%86%A0%EB%A5%98%20%EC%83%9D%EC%82%B0%EB%9F%89%EC%9D%80%2035%EB%A7%8Ct%EC%9C%BC%EB%A1%9C%2C,%EA%B4%91%EC%82%B0%EC%9D%B4%EC%97%88%EC%9C%BC%EB%82%98%20%EB%92%A4%EB%8A%A6%EA%B2%8C%20%EC%8B%9C%EC%9E%A5%EC%97%90%20%EC%A7%84%EC%9E%85%ED%95%9C%20%EC%A4%91%EA%B5%AD%EC%97%90%20%EC%9E%90%EB%A6%AC%EB%A5%BC%20%EB%82%B4%EC%A4%AC%EB%8B%A4

 
 
65. 중국도 계속해서 접근했지만 미국하고 덴마크 정부에서 막았다.

 
66. 만약 탄브리즈랑 크바네펠트가 중국 손에 들어갔으면 중국으로부터 희토류 독립은 불가능하다.
 
67. 지금 생산량이 문제가 아니라 이걸 정제할 수 있는 기업들을 찾고 있다.
 
68. 현재 UCORE, REalloys 하고 각각 10000톤, 초기 생산량 15프로를 공급하기로 했고, 이제 나머지 70프로 정도를 정제해 줄 회사를 찾고 있다.
 
69. 누가 정제를 해주는지가 리스크였는데 일단 UCORE랑 REalloys모두 DOD(미국 국방부지원)을 받은 거보니 생각보다 서방세계 쪽에 희토류 정제 시설이 급격하게 지어지고 있는 거 같다.
 
https://www.mining-technology.com/news/critical-metals-corp-10-year-offtake-agreement-ucore/?cf-view

Critical Metals signs ten-year offtake agreement with Ucore

Critical Metals Corp. has entered a letter of intent (LOI) for an offtake agreement with Ucore Rare Metals, a critical metals technology company.

www.mining-technology.com

 
https://www.globenewswire.com/news-release/2025/10/08/3163345/0/en/Critical-Metals-Corp-NASDAQ-CRML-Secures-Another-10-Year-Tanbre ez-Offtake-Agreement-for-15-of-Production-with-Leading-U-S-Full -Cycle-Rare-Earth-Processor-REalloys-Inc.html

Critical Metals Corp (NASDAQ: CRML) Secures Another 10-Year Tanbreez Offtake Agreement for 15% of Production with Leading U.S. F

This Off-take Agreement follows the Recent August 26th Announcement of an Off-take Agreement for 10.0% with the Department of War “DoW” Investee Company...

www.globenewswire.com

 
70. 이 회사는 돈도 없는데 비트코인을 사겠다고 그래서 주가가 1월부터 박살 났었다.
 
https://www.criticalmetalscorp.com/critical-metals-corp-announces-commencement-of-bitcoin-treasury -strategy-and-related-financing-to-acquire-up-to-500-million-of -btc/

Critical Metals Corp. Announces Commencement of Bitcoin Treasury Strategy and Related Financing to Acquire Up to $500 million of

NEW YORK, Jan. 21, 2025 (GLOBE NEWSWIRE) -- Critical Metals Corp. (Nasdaq: CRML) (“Critical Metals Corp”), a leading mining development company focused on

www.criticalmetalscorp.com

 
71. 그러나 6월 17일 EXIM(미국수출입은행) 1.2억 달러 대출예정이라는 뉴스가 터지고 자금줄에 희망이 보였고 이때부터 오르기 시작했다.
https://www.theguru.co.kr/news/article.html?no=88274#:~:text=%ED%86%A0%EB%8B%88%20%EC%84%B8%EC%9D%B4%EC%A7%80%20%ED%81%AC%EB%A6%AC%ED%8B%B0%EC%BB%AC%EB%A9%94%ED%83%88%EC%8A%A4%20%EC%B5%9C%EA%B3%A0%EA%B2%BD%EC%98%81%EC%9E%90(CEO)% EB% 8A%94%20%22(% EB% AF% B8%20% EC%88%98% EC% B6% 9C% EC% 9E%85% EC% 9D%80% ED%96%89% EC% 9D%98)%20% EC% 9E%90% EA% B8%88% EC% A0% 9C% EA% B3% B5,%EC%82% AC% EC%97%85% EA% B3% BC%20% EC% A3% BC% EC% A3% BC% EB%93% A4% EC%97%90% EA% B2% 8C%20% ED%81% B0%20% EA% B0%80% EC% B9%98% EA% B0%80%20% EC% 9E%88% EC% 9D%84%20% EA% B2%83% EC% 9C% BC% EB% A1% 9C%20% EC% A0%84% EB% A7% 9D% EB%90% 9C% EB% 8B% A4%22% EA% B3% A0

[더구루] 그린란드 희토류 채굴에 美수출입은행, 1.2억 달러 대출 예정

[더구루=홍성환 기자] 덴마크 자치령 그린란드의 최대 희토류 매장지 '탄브리즈(Tanbreez)' 광산 개발 프로젝트에 미국 수출입은행(EXIM)이 약 1600억원의 자금을 지원할 예정이다. 17일 로이터 등 외

www.theguru.co.kr

 
72. 이 사업에는 총 2억 9000만 달러(약 4000억 원)가 들 것으로 전망된다. 

 
73. 전략적 투자자도 구했고, 이제 DOD지원이 남아있다.
 
https://www.criticalmetalscorp.com/critical-metals-corp-announces-50-million-pipe-financing/

Critical Metals Corp. Announces $50 Million PIPE Financing - Critical Metals Corp

NEW YORK, Oct. 16, 2025 (GLOBE NEWSWIRE) -- Critical Metals Corp. (Nasdaq: CRML) (“Critical Metals Corp” or the “Company”), a leading critical minerals mining

www.criticalmetalscorp.com

 
74. 미국 정부 지분인수 뉴스로 올랐다가 아니라고 해서 하방 서킷 2번 맞고 그때부터 다시 올라서 30불 찍고 중국하고 희토류 합의되었대서 다시 떨어져서 10불이다...
 
75. 필자 생각에는 최종타당성보고서가 나오기 전에는 미국지분인수가 나올 거 같다. 왜냐하면 최종타당성보고서가 나오면 주가가 펌핑될 텐데 그러면 늦다. 
 
76. 10월 6일 로이터에서 미국 정부에서 crml이 요청한 5000만 달러를 지분으로 바꾸려고 한다는 뉴스가 떴다.
 
77. 볼륨버그에서 아니라고 했다고 하지만 그 기사 이후 10월 7일 로이터가 다시 기사를 내서 4명의 소식통을 통해 들었다고 반박했다. 그 이후에 볼룸버그 뉴스는 없다. 

https://www.reuters.com/business/energy/critical-metals-shares-surge-after-reuters-report-says-washington-eyeing-stake-2025-10-06/

 
78. 최종타당성보고서(BPE)가 70프로 완료되었다고 9월 2일에 뉴스가 나왔다. 그리고 4분기 내에 결과가 나온다고 한다. 
 
https://www.criticalmetalscorp.com/critical-metals-corp-nasdaq-crml-surpasses-70-completion-milest one-of-the-tanbreez-bankable-feasibility-study-remains-on-sched ule-for-completion-on-or-before-q4-2025/

Critical Metals Corp NASDAQ CRML – Surpasses 70% Completion Milestone of the Tanbreez Bankable Feasibility Study & Remains on

NEW YORK, Sept. 02, 2025 (GLOBE NEWSWIRE) -- Critical Metals Corp. (Nasdaq: CRML) (“Critical Metals Corp” or the “Company”), a leading critical minerals

www.criticalmetalscorp.com

 
79. 탄브리즈 지분 92.5 퍼까지 늘리기로 한 거 그린란드 의회 승인 기다리고 있다.
 
80. 2025년 9월 29일에 a geochemical test report for the hill site at the Tanbreez Project and a comparison report together with the mine and closure plan. 이 두 개를 제출했다. 
 
 

https://finance.yahoo.com/news/critical-metal-corp-obtains-crucial-133000332.html

 
81. 2025년 11월 4일에 a geochemical test report for the hill site at the Tanbreez Project 통과했다. 이제 남은 건 폐쇄계획 승인이 남았다. 
https://finance.yahoo.com/news/critical-metal-corp-obtains-crucial-133000332.html

Critical Metal Corp Obtains Crucial Environmental Approvals for the Tanbreez Project

NEW YORK, Nov. 04, 2025 (GLOBE NEWSWIRE) -- Critical Metals Corp. (Nasdaq: CRML) (“Critical Metals Corp” or the “Company”), a leading critical minerals mining company, today announced the approval of the geochemical test work reports for the Tanbre

finance.yahoo.com

 
82. 이제 프로젝트 개발과 운영, 폐광 단계에 관한 계획 보고서를 내야 한다. 폐쇄계획 승인 결과는 곧 나올 거 같다.
 
83. 보통 이런 건 로비가 중요하다. 그리고 DOD(국방부)랑 계약하는 것이기에 어떤 장군들을 앉히는지가 중요하다. 이 
https://www.reuters.com/world/us/critical-mineral-firms-boost-washington-lobbying-us-expands-inv estments-2025-10-16/
 
84. 전 해군 소장인 Peter Stamatopoulos를 10월 22일 고문으로 앉혔는데, 이 장군님은 해군 공급군단 49대 수장(Chief of Supply Corps)이자 Naval Supply Systems Command (NAVSUP) 사령관으로서 25,000명의 인력과 연 $12억 규모의 물류 운영을 관리했다.
https://www.criticalmetalscorp.com/critical-metals-corp-appoints-rear-admiral-peter-stamatopoulos- to-its-advisory-board/

Critical Metals Corp Appoints Rear Admiral Peter Stamatopoulos to its Advisory Board - Critical Metals Corp

NEW YORK, Oct. 22, 2025 (GLOBE NEWSWIRE) -- Critical Metals Corp. (Nasdaq: CRML) (“Critical Metals Corp” or the “Company”), a leading

www.criticalmetalscorp.com

 
 

지금까지 발행된 전환사채와 유상증자

 
85. 2025년 1월 21일에 비트코인을 사기 위해 주가 6달러에 1억 달러를 발행을 했다. 그런데 비트코인 매입 발표를 안 한 거 보니까 운영자금으로 쓰거나 현금으로 놔두고 있는거 같다. 왜냐면 운영자금으로 써도 되기 때문이다. 6달러에 4억달러를 발행할 수 있는 조건이 있는데 아직 안 한거보니까 발행은 안 한거 같다.
 
86. 2025년 2월에 5달러 기준으로 2250만 달러 규모로 PIPE투자를 받았다. 
 
87. 2025년 10월 16일 5000만 달러 규모의 PIPE투자를 받았는데 이 투자의 전환가가 34.01달러이다.
 
88. 4억 달러를 지금 당길거 같지 않다. 왜냐하면 지금 10달러인데 6달러에 4억달러를 땡길 이유가 없다. 
 
89. 스펙합병을 할 때 기관투자자들이 11.5달러 전환가로 7750000개의 주식 워런티를 가지고 있다. 3 거래일 전으로 종료되는 30 거래일 기간 내 20 거래일 동안 해당 보통주의 최종 보고된 판매 가격이 주당 18달러 이상인 경우 회사가 이걸 상환시킬 수 있다. 상환일 오후 5시에 행사되지 않은 모든 워렌트는 0.01달러로 상환된다.
 
90. 이 7750000개가 11.5달러에서 전부 주식으로 바꿔버린다고 생각해 보자
 
91. 지금 10.78달러에 야후파이낸스 기준으로 1.269B달러이다. 그럼 11.5달러가 되면 1.354B가 된다.
 
92. 1.354B/11.5를 하면 1억 1774만 달러인데 7750000개가 추가된다고 생각해 보자 7750000*11.5=89125000달러가 추가되는 것이므로 13억 5400만 + 8912만 5000달러= 14억 4312만 5000달러
 
93.14억 4312만 5000달러 / 13억 5400만 달러 = 1.066이므로 6.6프로 정도 주가 유통량이 늘어날 수 있다. 
 
 
 

목표주가

 
94. 사실 목표주가라고 하기가 애매한 게 이게 성공할지가 중요한 문제인 것이기 때문이지만 순현재가치 정도의 시총은 받아야 되지 않을까 싶다. 3B정도면 야후파이낸스 기준으로 25.8달러 정도 된다.
 
95. 아마도 셧다운 끝나면 DOD의 지분인수 쇼핑이 시작될 거 같다. 필자는 세 분야를 본다. 1. 방산 2. 희토류 3. 퀀텀
 
96. 방산 쪽은 HII 같은 조선 쪽이 매우 유력해 보이지만 갈륨대체해서 무기 만들고 있는 LPTH, 보잉 정도가 아닐까 싶다. 
 
97. 희토류랑 광물은 제가 트럼프면 CRML, TMC가 1순위고, USAR이지 않을까 싶다.
 
98. 퀀텀 쪽은 아이온큐가 매우 유력하지만 퀀텀센싱 쪽으로 FEIM이나 양자용 반도체 파운드리를 만드는 SKYT가 유력해 보인다.
 
 

추가적으로

 
99. 추가적으로 갈륨을 대량공급할 수 있는 곳이 crml 뿐이라 록히드 마틴에게 공급하는 계약이야기가 계속 들린다.
 
100. 지금 인수를 주도하고 있는 미국 상무부 장관하워드 러드닉이 가지고 있던 회사는 Cantor Fitzgerald (캔터 피츠제럴드)이다. 예전에 13.4프로를 가진 2대 주주였지만 지금 0.21프로로 줄었다. 아마 공직으로서 이해관계문제가 크지 않을까 싶다.
 
101. 물론 Brandon Lutnick (아들)이 지금은 이 회사를 맡고 있다. 쨌든 루트닉과도 연관관계가 없지 않다는 점이다.
 

매수매도는 추천 글이 아니고 매수매도는 본인 판단입니다.

 

반응형
반응형

 

첫 번째로 스승님이 했던 말이 있다. " 아무리 좋은 주식이라도 시장의 관심을 받지 않으면 죽은 주식이다

 

그걸 듣고나서 망치를 맞은 느낌이었다. 스스로의 매매방식을 좀 바꿨다.

1. 좋은 주식이고 저평가더라도 거래량이 없다면 리스크 관리를 철저하게 한다. 예를 들면 손절라인과 지지라인을 명확하게 잡고 매매한다.
2. 커뮤니티나 뉴스에서 주목받기 시작해서 거래량이 증가하게 되고 충분히 언제든지 일정 거래량이 되어서 언제든지 탈출이 가능하다고 생각이 되면 손절과 지지를 1번 때처럼 타이트하게 하지 않는다.

=> 이러다가 많이 손실본적도 많으니 조심하자 

3. 이 때부터는 보통 지지라인을 지켜주는 경우가 많고 계속해서 지지라인을 여러 번 지지해 준다고 하면 크게 들어간다. 이 때는 다시 1번처럼 타이트하게 매매한다. 이때부터는 목표가를 정한다. 목표가가 오면 바로 50프로는 던지고 50프로는 남겨두고 50프로는 타이트하게 매매한다.
4. 그리고 다시 떨어졌을 때 원하는 부근까지 오면 들어가는데 조건이 있다. 카카오톡 톡방인원을 보면서 과열인지를 판단한다. 고점대비해서 30프로 정도인원이 나가면서 내가 원하는 부근까지 오면 보통 그때가 타점인 경우가 많다. 그리고 여기에 하나가 더 붙는데 거래량이 계속해서 과거보다 높은 상태로 유지를 해주어야 한다.

 

두 번째로 스승님이 했던 말이 있다. " 주도주를 잡아라"

 

뭔가 나는 홍대병이 있다. 남들이 AI 반도체 전력을 이야기할 때 바이오, 희토류, 석유, 은, 금, 광물 이런 걸 위주로 매매했던 거 같다. 바이오도 화이자 같은 바이오가 아니라 잡주위주로 매매했다. 왜 그랬냐면 주도주는 항상 비싸다.

 

물론 적정가 대비 저렴할 수 있지만 주도주가 아닌 섹터에서는 더 싼 것이 많다. 그래서 매번 주도주가 아닌 섹터가 주도주가 될 때까지 기다렸다. 그러나 요즘 느끼는 건데 가는 놈이 더 잘 가고 조정 와도 덜 떨어진다. 아직 몸에 익지는 않지만 조금씩 배워보려고 하고 있다.

 

마무리

 

계좌를 하루 만에 2배도 불려봤고 하루만에 50 퍼도 잃어봤고, 코인은 청산도 당해봤다. 그런데 나는 잃었을 때 가장 많이 배웠던 거 같다. 

 

돈을 잃어보라는 게 아니라 잃은 사람들한테도 충분히 배울 점이 많다는 것을 알려주고 싶은 것이다. 필자는 그래서 주식 수익률을 자랑하는 것이 이해가 가지 않는다. 그래서 나는 수익률 자랑을 거의 하지 않는다. 자랑해서 좋을 게 없는데 요즘 생각이 짧은 사람들이 많은 거 같다.

 

최근 주요 트레이딩 계좌의 5년 치 계좌 수익률이긴 한데 많이 번 것은 아니지만 이 정도 번 것도 운이 좋았다고 생각한다. 아마도 다시 회귀할 가능성이 높다. 

 

코로나 때는 코로나 빨리 끝날 줄 알고 크루즈랑 항공주식 들어갔다가 제대로 못 먹었던 기억이 있다. 2022년에는 괜히 TQQQ 들어갔다가 손절라인 제대로 못 잡아서 석유로 번 걸 날린 기억이 있다.

 

나는 수익률 일정회귀 법칙을 믿는다. 어차피 결국 나중에 갔을 때 일정 수치로 회귀하게 되는 거 같다. 그 일정 수치의 상방을 높이려고 공부하고 뉴스를 보는 것이다.

반응형
반응형

 

기업 실적 보고서는 보통 복잡하고 따분한 숫자로 가득 차 있습니다. 하지만 스카이워터 테크놀로지(SkyWater Technology)의 최근 보고서는 예외입니다. 이 보고서에는 미국 반도체 제조의 미래에 대한 놀랍고도 중요한 소식이 담겨 있습니다.
스카이워터는 미국에만 기반을 둔 최대 규모의 순수 반도체 파운드리 기업입니다. 이번 기록적인 3분기 실적은 단순한 재무 성과를 넘어, 회사의 전략적 방향과 미국 반도체 산업에서의 입지를 명확히 보여줍니다.
본문에서는 투자자와 기술 애호가들이 반드시 알아야 할 스카이워터의 3분기 실적 보고서 핵심 사항들을 깊이 있게 분석해 보겠습니다.
새롭게 인수한 텍사스 사업부, 첫 분기부터 기대 이상의 홈런을 치다
스카이워터가 새롭게 인수한 텍사스 사업부(Fab 25)가 운영 첫 분기 만에 예상을 뛰어넘는 성과를 거두었습니다. 2025년 3분기 스카이워터 텍사스의 매출은 무려 8,660만 달러에 달했으며, 수익성 또한 "초기 예상보다 훨씬 강력했다"고 발표되었습니다.
여기서 한발 더 나아가 분석해 보면, 이 인상적인 초기 매출은 단순히 표준적인 운영 성과만이 아닙니다. 실적 보고서에 따르면 이는 "예상보다 높게 책정된 공급 계약의 비시장적 요소"와 "인수 직후 처리한 대규모 재공품(WIP) 웨이퍼 물량"에서 발생한 추가 수익에 힘입은 결과입니다. 이는 유리한 인수 회계 처리와 기존 백로그 해소가 즉각적인 성과에 기여했음을 보여주며, 인수의 단기적 효과를 더욱 정교하게 이해하게 합니다.
전략적으로 이번 인수는 스카이워터의 미국 내 파운드리 생산 능력 점유율을 기존 4%에서 17%로 단숨에 끌어올리며, 회사의 시장 입지를 근본적으로 강화했습니다.
양자 컴퓨팅, 새로운 핵심 성장 동력으로 급부상하다
스카이워터는 "양자 컴퓨팅 분야에서 강력한 모멘텀"을 경험하고 있습니다. 회사는 2분기 이후 SQC, QuamCore를 포함한 4개의 새로운 양자 컴퓨팅 기업과 첨단 기술 서비스(ATS) 계약을 체결했습니다. 이를 바탕으로 스카이워터는 "2025년 양자 컴퓨팅 관련 매출이 30% 이상 성장할 것"으로 전망하고 있습니다.
이러한 모멘텀은 우연이 아닙니다. 스카이워터는 지적 재산 보호와 국가 안보가 무엇보다 중요한 분야에서 신뢰할 수 있는 미국 내 파운드리로 전략적 입지를 굳히고 있으며, '신뢰받는(Trusted)' 지위는 핵심 경쟁 우위가 되고 있습니다.
최고경영자(CEO) 토마스 손더만(Thomas Sonderman)은 회사의 전략적 위치를 다음과 같이 강조했습니다.
"저희는 2분기 이후 4개의 새로운 양자 고객사와 계약을 체결하며, 이 신흥 성장 시장에서 스카이워터를 최고의 파운드리 파트너로 자리매김하기 위한 상당한 모멘텀을 구축하고 있습니다. 우리는 미국에만 집중하고 신뢰받는 순수 파운드리 파트너라는 점이 다양한 양자 컴퓨팅 기술에 이상적인 제조 파트너가 될 것이라 믿으며, 앞으로 몇 분기 동안 지속적인 모멘텀을 발표할 것으로 기대합니다."
1억 4,400만 달러 순이익, 그 이면에 숨겨진 회계적 진실
2025년 3분기 GAAP(일반회계기준) 순이익은 1억 4,400만 달러라는 놀라운 수치를 기록했습니다. 하지만 이 인상적인 숫자의 이면을 들여다볼 필요가 있습니다. 이 막대한 이익의 주된 이유는 Fab 25 인수와 관련된 일회성 "1억 1,080만 달러의 염가 매수 차익(bargain purchase gain)" 때문입니다.
이는 회계상 이익으로, 인수한 자산의 공정 가치보다 실제 구매 가격이 낮을 때 발생하는 것입니다. 즉, 반복적인 운영 활동에서 발생한 이익이 아니라는 점을 이해하는 것이 중요합니다. 분기 운영 수익성을 더 현실적으로 파악하려면 비일반회계기준(Non-GAAP) 순이익을 참고해야 하며, 이는 1,150만 달러로 집계되었습니다.
미국 핵심 산업을 위한 첨단 패키징 생태계를 구축하다
온쇼어(On-shore) 첨단 패키징은 미국 반도체 공급망, 특히 국방 분야에서 오랫동안 아시아에 대한 의존도를 높이는 병목 현상으로 지적되어 왔습니다. 스카이워터의 플로리다 시설 투자는 이러한 지정학적 리스크를 해소하려는 직접적인 전략적 움직임입니다.
이러한 노력은 미국 정부의 강력한 지원을 받고 있으며, 구체적으로 "300mm 웨이퍼 팬아웃 이니셔티브를 위한 국방부(DOD) 프로그램 자금 1억 2,000만 달러"가 투입되었습니다. 이 기술의 목표 시장은 "방위 산업 기반, 고성능 컴퓨팅(HPC), AI 프로세서"로 명시되어 국가 안보와 직결된 중요성을 시사합니다.
스카이워터는 다음 세 가지 첨단 패키징 기술을 통해 시장 수요에 대응할 계획입니다.
 팬아웃 웨이퍼 레벨 패키징 (Fan-Out Wafer-Level Packaging)
 하이브리드 웨이퍼 본딩 (Hybrid Wafer Bonding)
 실리콘 인터포저 (Si Interposer)
결론
스카이워터의 2025년 3분기 실적은 단순한 재무적 성공을 넘어섭니다. 텍사스 인수의 즉각적인 성공, 양자 컴퓨팅 분야의 가속화되는 성장, 그리고 국방 및 AI를 위한 첨단 패키징에 대한 전략적 투자는 회사의 밝은 미래를 예고합니다.
결론적으로 스카이워터의 3분기 실적은 단순히 한 분기의 숫자를 넘어 명확한 전략적 청사진을 제시합니다. 텍사스에서 파운드리 생산 능력을 확보하고, 민감한 양자 시장을 선점하며, 국방을 위한 보안 패키징 생태계를 구축함으로써 스카이워터는 단순한 성장을 넘어 미국의 반도체 주권을 지키는 데 없어서는 안 될 핵심 기둥으로 자리매김하고 있습니다.
스카이워터의 깜짝 실적: 숫자 너머 미국의 반도체 주권이 보인다
 
기업 실적 보고서는 보통 복잡하고 따분한 숫자로 가득 차 있습니다. 하지만 스카이워터 테크놀로지(SkyWater Technology)의 최근 보고서는 예외입니다. 이 보고서에는 미국 반도체 제조의 미래에 대한 놀랍고도 중요한 소식이 담겨 있습니다.
스카이워터는 미국에만 기반을 둔 최대 규모의 순수 반도체 파운드리 기업입니다. 이번 기록적인 3분기 실적은 단순한 재무 성과를 넘어, 회사의 전략적 방향과 미국 반도체 산업에서의 입지를 명확히 보여줍니다.
 
본문에서는 투자자와 기술 애호가들이 반드시 알아야 할 스카이워터의 3분기 실적 보고서 핵심 사항들을 깊이 있게 분석해 보겠습니다.
 
새롭게 인수한 텍사스 사업부, 첫 분기부터 기대 이상의 홈런을 치다
스카이워터가 새롭게 인수한 텍사스 사업부(Fab 25)가 운영 첫 분기 만에 예상을 뛰어넘는 성과를 거두었습니다. 2025년 3분기 스카이워터 텍사스의 매출은 무려 8,660만 달러에 달했으며, 수익성 또한 "초기 예상보다 훨씬 강력했다"고 발표되었습니다.
여기서 한발 더 나아가 분석해 보면, 이 인상적인 초기 매출은 단순히 표준적인 운영 성과만이 아닙니다. 실적 보고서에 따르면 이는 "예상보다 높게 책정된 공급 계약의 비시장적 요소"와 "인수 직후 처리한 대규모 재공품(WIP) 웨이퍼 물량"에서 발생한 추가 수익에 힘입은 결과입니다. 이는 유리한 인수 회계 처리와 기존 백로그 해소가 즉각적인 성과에 기여했음을 보여주며, 인수의 단기적 효과를 더욱 정교하게 이해하게 합니다.
전략적으로 이번 인수는 스카이워터의 미국 내 파운드리 생산 능력 점유율을 기존 4%에서 17%로 단숨에 끌어올리며, 회사의 시장 입지를 근본적으로 강화했습니다.
 
 
양자 컴퓨팅, 새로운 핵심 성장 동력으로 급부상하다
스카이워터는 "양자 컴퓨팅 분야에서 강력한 모멘텀"을 경험하고 있습니다. 회사는 2분기 이후 SQC, QuamCore를 포함한 4개의 새로운 양자 컴퓨팅 기업과 첨단 기술 서비스(ATS) 계약을 체결했습니다. 이를 바탕으로 스카이워터는 "2025년 양자 컴퓨팅 관련 매출이 30% 이상 성장할 것"으로 전망하고 있습니다.
이러한 모멘텀은 우연이 아닙니다. 스카이워터는 지적 재산 보호와 국가 안보가 무엇보다 중요한 분야에서 신뢰할 수 있는 미국 내 파운드리로 전략적 입지를 굳히고 있으며, '신뢰받는(Trusted)' 지위는 핵심 경쟁 우위가 되고 있습니다.
최고경영자(CEO) 토마스 손더만(Thomas Sonderman)은 회사의 전략적 위치를 다음과 같이 강조했습니다.
"저희는 2분기 이후 4개의 새로운 양자 고객사와 계약을 체결하며, 이 신흥 성장 시장에서 스카이워터를 최고의 파운드리 파트너로 자리매김하기 위한 상당한 모멘텀을 구축하고 있습니다. 우리는 미국에만 집중하고 신뢰받는 순수 파운드리 파트너라는 점이 다양한 양자 컴퓨팅 기술에 이상적인 제조 파트너가 될 것이라 믿으며, 앞으로 몇 분기 동안 지속적인 모멘텀을 발표할 것으로 기대합니다."
 
 
1억 4,400만 달러 순이익, 그 이면에 숨겨진 회계적 진실
2025년 3분기 GAAP(일반회계기준) 순이익은 1억 4,400만 달러라는 놀라운 수치를 기록했습니다. 하지만 이 인상적인 숫자의 이면을 들여다볼 필요가 있습니다. 이 막대한 이익의 주된 이유는 Fab 25 인수와 관련된 일회성 "1억 1,080만 달러의 염가 매수 차익(bargain purchase gain)" 때문입니다.
이는 회계상 이익으로, 인수한 자산의 공정 가치보다 실제 구매 가격이 낮을 때 발생하는 것입니다. 즉, 반복적인 운영 활동에서 발생한 이익이 아니라는 점을 이해하는 것이 중요합니다. 분기 운영 수익성을 더 현실적으로 파악하려면 비일반회계기준(Non-GAAP) 순이익을 참고해야 하며, 이는 1,150만 달러로 집계되었습니다.
미국 핵심 산업을 위한 첨단 패키징 생태계를 구축하다
온쇼어(On-shore) 첨단 패키징은 미국 반도체 공급망, 특히 국방 분야에서 오랫동안 아시아에 대한 의존도를 높이는 병목 현상으로 지적되어 왔습니다. 스카이워터의 플로리다 시설 투자는 이러한 지정학적 리스크를 해소하려는 직접적인 전략적 움직임입니다.
이러한 노력은 미국 정부의 강력한 지원을 받고 있으며, 구체적으로 "300mm 웨이퍼 팬아웃 이니셔티브를 위한 국방부(DOD) 프로그램 자금 1억 2,000만 달러"가 투입되었습니다. 이 기술의 목표 시장은 "방위 산업 기반, 고성능 컴퓨팅(HPC), AI 프로세서"로 명시되어 국가 안보와 직결된 중요성을 시사합니다.
 
 
스카이워터는 다음 세 가지 첨단 패키징 기술을 통해 시장 수요에 대응할 계획입니다.
 팬아웃 웨이퍼 레벨 패키징 (Fan-Out Wafer-Level Packaging)
 하이브리드 웨이퍼 본딩 (Hybrid Wafer Bonding)
 실리콘 인터포저 (Si Interposer)
 
 
결론
스카이워터의 2025년 3분기 실적은 단순한 재무적 성공을 넘어섭니다. 텍사스 인수의 즉각적인 성공, 양자 컴퓨팅 분야의 가속화되는 성장, 그리고 국방 및 AI를 위한 첨단 패키징에 대한 전략적 투자는 회사의 밝은 미래를 예고합니다.
결론적으로 스카이워터의 3분기 실적은 단순히 한 분기의 숫자를 넘어 명확한 전략적 청사진을 제시합니다. 텍사스에서 파운드리 생산 능력을 확보하고, 민감한 양자 시장을 선점하며, 국방을 위한 보안 패키징 생태계를 구축함으로써 스카이워터는 단순한 성장을 넘어 미국의 반도체 주권을 지키는 데 없어서는 안 될 핵심 기둥으로 자리매김하고 있습니다.

 

반응형
반응형

https://hanglestocks.tistory.com/130

 

한화솔루션 1편 왜 태양광 숏티지가 나는가?

먼저, 한화솔루션이 어떤 기업인지 알아보자1. 한화솔루션은 한화그룹의 에너지·소재 핵심 계열사로, 2020년 한화케미컬·한화큐셀·한화첨단소재 3사 통합으로 출범한 친환경 에너지 소재 전문

hanglestocks.tistory.com

 

 

글을 마저 이어서 써보겠다.

트럼프가 태양광 보조금 축소한다는데?

 
44. 18일 미국 국세청이 확정한 OBBBA 세액공제 지급 관련 세부규정에 따르면 2026년 7월 4일 이전에 태양광 및 풍력 단지를 착공하는 경우 4년 내에만 발전단지를 완성하고 전력을 생산하면 보조금을 지급하기로 했다.
 
https://news.nate.com/view/20250818n20641

 

생각보다 약한 美태양광 보조금 규제에…한화, OCI '안도' : 네이트 뉴스

한눈에 보는 오늘 : 경제 - 뉴스 : OBBBA(하나의 크고 아름다운 법) 관련 태양광 세액공제 세부규정이 당초 예상보다 유연한 방식으로 확정됐다. 미국 태양광 발전소 증가세에 당장의 큰 타격이 없

news.nate.com

 


45. 미국은 태양광, 풍력 발전단지에 대해 투자비의 30~50%를 세액공제해주는데 현금으로 직접 지원한다.
 
46. 2029~2030까지만 만들어놓으면 보조금 받는데 문제가 없고 오히려 빨리 만들자는 수요가 발생할 가능성이 높다.

 

47. 정확히는 2026년 7월 4일까지 착공하거나 2027년 12월 31일까지 완공하면 ITC(Investment Tax Credit)이라는 투자액 기준 보조금 30프로를 받는 크레딧을 받을 수 있다.
 

48. 태양광 보조금은 위에서 언급한 ITC 이외에도 AMPC(Advanced Manufacuring Production Credit)가 있다. 이거는 미국 내 제조되는 태양광 모듈/셀을 비롯한 신재생에너지 물품을 만드는 회사에 보조금을 주는 것이다.

 

49. 그리고 dc라는 세액공제도 있는데 이건 미국산 비중이 45퍼센트를 넘으면 10프로를 설치 사업자에게 추가로 주는 것이다. 즉 사업자 입장에서 오히려 미국산을 쓰는게 싸게 먹히고, 그래서 퍼스트 솔라가 잘 나가는 것이다.

 

49. AMPC를 받으려면 45퍼센트를 미국산, 2027년부터 55퍼센트를 미국산으로 맞춰야한다. 한화솔루션은 이를 충족시킬 수 있다. 왜냐하면 부품의 원가가 셀하고 모듈이 제일 크기 때문에 셀하고 모듈을 맞추는 것이 중요하다.

 

50. 여기서 태양광 패널이 어떻게 구성되있는지 보면 폴리실리콘, 잉곳, 웨이퍼, 셀, 모듈로 이루어져 있다. 보통 셀의 원가비중이 40~50 퍼, 모듈이 10~25 퍼, 잉곳/웨이퍼가 13~15 퍼, 폴리실리콘이 8~10 퍼정도 된다.

 

51. 여기서 미국 카터스빌 공장이 완공되면 3.3GW용량으로 잉곳, 웨이퍼, 셀을 생산할 수 있고, 모듈은 달튼하고 카터스빌 합쳐서 8.4GW 생산이 가능하다.

 

52. 한화솔루션 조지아 카터스빌 공장이 완공되면 말레이시아랑 한국에서 셀을 가져오더라도 보조금 기준을 맞출 수 있다. 약간 부족한 부분은 Array 트래킹을 사용하거나, 엔페이즈나 솔라엣지의 인버터 사용하거나 oci 폴리실리콘 사용해서 메꾸면 충분히 메꿀 수 있다.


53. 트럼프가 신재생에너지 보조금 축소한것이 맞다. 그러나 여기에서 자유로운 에너지원이 있다. 첫째로 수소이고, 둘째로 미국 내에서 생산한 태양광이다. 미국 내 요건(현재 45 퍼 미국산, 2027년부터 55 퍼 미국산)을 충전한 태양광 모듈, 셀 생산 업자에게 주는 AMPC를 2032년까지 그대로 주는 것으로 동결시켰다.

 

54. AMPC 보조금은 셀이 4$/W, 모듈은 7$/W, 웨이퍼는 $12/m^2, 잉겟은 $3/kg, 폴리실리콘은 $3/Kg이다.
 
55. 여기서 한화솔루션은 셀 3.3gw, 모듈 8.4gw, 웨이퍼 3.3gw, 잉곳을 3.3gw이고, 웨이퍼랑 잉곳은 이 양을 미터제곱과 kg으로 환산을 해보자면 각각 40만 미터제곱과 148톤 정도이다.

 

56. 셀, 웨이퍼, 잉겟, 모듈이 중복지급이 되지 않으므로 8.4GW의 모듈에 $0.07/W의 보조금을 받는다고 하면 $588M 보조금을 받게 된다. 그리고 ITV+DC 요건도 충족시키므로 설치 사업자 입장에서 40프로를 돌려받을 수 있다.

 

원래 목표는 폴리실리콘까지 수직계열화였다

57. 한화솔루션은 여기에 REC실리콘을 인수해서 폴리실리콘까지 수직계열화로 만들 계획을 하고 있었다. 한화가 대주주이다. 한화솔루션이 지분 16.67%를 1901억 원에, ㈜한화의 경우 12%를 1368억 원에 인수했다. 그러나 REC실리콘 장부 금액은 173억 원으로 투자 원금의 12.6%만 남았다.

 

58. 그러나 2025년 1분기 회사의 경영이 어려워져 태양광 폴리실리콘을 완전 중단을 선언했다. 그리고 실리콘 가스 사업자로 전황했다. 잔여 지분(66.67%)을 전량 사들여 REC실리콘을 100% 자회사로 품을 계획이다.   

 

https://www.g-enews.com/article/Global-Biz/2025/08/202508261014372653fbbec65dfb_1

 

한화, REC실리콘 2차 인수 제안…'가격 인상 없다' 최후통첩 - 글로벌이코노믹

노르웨이에 본사를 둔 태양광 소재 기업 REC실리콘 인수를 추진하는 한화그룹이 소액 주주들의 반발에도 기존 인수가를 고수하며 정면 돌파를 선언했다고 솔라 서버가 25일(현지시각) 보도했다.

www.g-enews.com

 

https://www.thelec.kr/news/articleView.html?idxno=36117

 

10분의 1토막 난 REC실리콘 가치…지분 100% 인수 책임경영 강화? - 전자부품 전문 미디어 디일렉

한화그룹의 폴리실리콘 투자가 투자 실패 사례로 지적되고 있다. 미국 태양광 사업의 확장을 위해 노르웨이 REC Silicon ASA(이하 REC실리콘)사 지분을 인수했지만, 지난해 완전 자본 잠식에 빠진 후

www.thelec.kr

 

59. 한화는 지급보증을 서는 등 물심양면으로 도왔으나 품질 문제로 한화솔루션에 폴리실리콘을 납품하지 못했기 때문에 미국 워싱턴주 공장 폐쇄 절차를 받는 중이다.

 

60. REC실리콘이 발표한 반기 실적을 보면 순손실은 지난해 같은 기간 5100만 달러에서 700만 달러로 크게 줄었으며, 이자·세금·감가상각 전 이익(EBITDA)은 150만 달러 적자에서 490만 달러 흑자로 돌아섰다. 그러나 이는 구조조정의 결과다.

 

https://www.thelec.kr/news/articleView.html?idxno=36928

 

한화의 폴리실리콘 투자사, 폴리실리콘 사업 '청산' - 전자부품 전문 미디어 디일렉

한화그룹의 폴리실리콘 투자가 수포로 돌아갔다. 노르웨이 REC Silicon ASA(이하 REC실리콘)사가 폴리실리콘 제조를 비롯해 관련 사업을 일체 청산했기 때문이다. 한화는 최대 주주로서 투자를 지속

www.thelec.kr

 

61. 실리콘 가스는 반도체, 태양광 등에 쓰이기에 한화솔루션 입장에서 가지고 있으면 이 또한 수직계열화의 일환으로 볼 수 있다.

 

62.  생산 능력은 2개 미국 공장을 합쳐 3만 메트릭톤(MT) 이상이었으나, 약 80%(2만 4000MT)가 모세스레이크 공장 폐쇄로 가동이 중단되었다.

 

63. 결국 한화의 추가 투자가 필요하고, 이를 한화가 알기 때문에 고자세로 나오고 있다.

 

대체 그럼 한화솔루션은 얼마나 수혜를 볼까?

 

64. 일단 현재 한화솔루션은 미국 주거용 시장 1등으로 점유율이 30프로 이상이다. 25년 기준 미국 주거용 시장은 5.2GW이다.

 

65. 2024년 말 미국 모듈 유효 재고는 36.2GW로 추정되며 25년 말에는 26.9GW로 감소된다. 

 

66. 중국 기업들은 이미 미국 내 가격 경쟁력을 잃었다. 

 

Trina Solar(베트남)를 예로 추정해 보면, 현재 모듈 생산 비용은 약 31.5c/w다. 이는 한화솔루션(한국) 생산비용 대비 약 18.4%, 퍼스트솔라(미국) 생산비용 대비 약 17.1% 높은 수준이다(나머지 비용은 한화솔루션=Trina Solar 가정). 중국 기업들이 아무리 생산효율 성이 더 좋다 해도 쉽게 좁히기 어려운 비용 차이다. 게다가 AD/CVD가 70%/90%로 상승한다 가정하면, 한화솔루션과의 비용 차이는 18.4% 에서 23.7%/30.5%까지 벌어진다. 

 

67. 진코솔라의 말레이시아 셀 공장 7GW는 미국 수출이 가능해 보인다. 그러나 모듈에 있어서는 ITC와 DC모두를 받는 한화솔루션과 퍼스트솔라를 이기긴 힘들어 보인다.

 

68. 테슬라도 이 사업을 한다고 오해하는데 테슬라가 하는 태양광 사업은 모듈을 설치하고 ESS랑 엮어서 파는 것이고, 한화는 직접 모듈을 생산한다. 테슬라가 하는 사업부문은 선런이 하는 시장이다.

 

69. 앞서 이야기했듯이 태양광 모듈이 미국 내 이외의 생산지에서 수출은 박살 난 상황이고, 미국 내에서 모듈 생산분으로는 8GW의 숏티지가 발생한다. 현재 재고가 26.9GW만큼 남아있지만 점차 줄어들기 시작하면서 숏티지가 시작될 것이다.

 

70.  그전까지는 모듈만 미국산 모듈이기 때문에 고객입장에서 ITC는 받았으나 DC보너스를 받지 못했다. 

 

71. 만약 이제 MADE in USA를 45프로(강화되면 50프로)를 맞추게 된다면 지금 현재가격에서 고객에서 10프로 정도를 전가가 가능하다. 

 

하나증권은 미국 태양광 모듈 가격은 40~50% 상승 가능한 것으로 추정한다. AD/CVD와 M/S(시장 점유율)를 감안하여 가중평균 한 미국의 동남아 4개국으로부터의 모듈 수입 가격은 이론적으로 현재 W당 0.21$에서 W당 0.49$로 133% 상승이 예상된다. 

동남아 4개국의 미국 내 M/S 77%를 감안 시 미국 전체 가격은 이론적으로 W당 0.377$까지 약 80% 상승이 가능하다. 보수적으로 W당 0.3$ 수준까지 40~50% 상승도 가능하다. 하나증권에 따르면, 연간 출하량 8GW 기준 모듈 가격 W당 0.01$ 개선 시 한화큐셀의 분기 영업이익은 약 290억 원 개선될 전망이다(환율 1,450원 기준).
-
하나증권 유재성 연구원

 

적정주가 계산

74. 지난 2분기 신재생에너지 부문은 매출 1조 4464억 원으로 전년동기대비 47.5% 증가했다. 이 기간 영업이익은 1562억 원으로 전년동기대비 흑자전환했다. 1820억을 빼면 영업이익이 258억 적자이다. 

 

75. 2분기 현재 w당 약 0.2$ 수준이고 0.3$까지 오르게 되면 영업이익은 분기당 2900억이 증가하고 연단 위로 1조 1600억 원의 영업이익이 늘어난다. 그러나 원래 태양광 사업이 4분기가 피크이고 매출의 3 40퍼가 4분기에 나온다. 그러므로 우린 보수적으로 하기 위해서 4분기에 전체 총 연간 영업이익의 40프로의 영업이익이 나온다고 하고, 2분기에는 15프로가 나온다고 가정하겠다.

 

76. 보수적으로 잡았을 때 분기 태양광 사업의 영업이익은 2320-258=2062이고 2062*4=8248억이고, 보조금을 558M 달러를 받으니까 환율 1450원으로 계산하면 8525억 수령이 가능하다. 즉 16773억이다.

 

78. 다음 편에서는 한화솔루션의 석유화학 파트를 다뤄볼 텐데 필자는 흑자전환을 할 가능성을 높게 보고 있지만 보수적으로 순이익 0으로 잡고 계산해 보겠다.

 

79. 2025년 2분기 기준 당기순이익과 영업이익의 차이는 2675억이므로 당기순이익 계산을 위해서 빼주면 14098억 원이 나온다.

 

80. 자 이제 여기에 per배수를 얼마를 줄지는 상상에 맡기겠다. 그래도 10 정도는 줘도 되지 않을까 싶다. 왜냐면 퍼스트솔라가 per이 20이니까 국장의 특징을 고려하면 10정도를 줄 수 있다고 생각한다.

 

81. 그러면 14조의 시총을 가지게 된다. 참고로 현재시총은 5조이다. 

 

출처:구글

82. 만약 쇼티지로 모듈가격이 2배가 오른다면 연간 약 2조 2천억의 영업이익을 가지게 된다. 여기에도 per 10을 준다면 시총은 22조가 된다. 

 

83. 여기에 숏티지가 와서 한국공장까지 돌리게 되면 더 늘어날 수도 있다. 한국 공장 가동률이 21퍼 수준이다.

 

 

여러분들이라면 어떻게 가치를 평가할 것인가
반응형
반응형
먼저, 한화솔루션이 어떤 기업인지 알아보자

1. 한화솔루션은 한화그룹의 에너지·소재 핵심 계열사로, 2020년 한화케미컬·한화큐셀·한화첨단소재 3사 통합으로 출범한 친환경 에너지 소재 전문기업입니다.

출처: 공식 홈페이지

 
2. 석유화학부터 태양광, 첨단소재까지 아우르는 포트폴리오로 글로벌 시장에서 경쟁력을 입증하고 있습니다. 

한화솔루션 dart 2025년 반기보고서

 
 

  • 신재생에너지: 3,850,818 (약 53.2%)
  • 기초소재: 2,430,604 (약 33.6%)
  • 가공소재: 675,524 (약 9.3%)
  • 기타: 275,709 (약 3.8%)

3. 현재 신재생에너지가 53프로 매출을, 기초소재가 33.6프로 매출, 가공소재가 9.3프로를 차지하고 있기에 한화솔루션을 분석하기 위해서는 태양광뿐만 아니라 석유화학 산업도 같이 봐야 한다.
 
4. 구체적으로 말해보자면 한화솔루션에서 기초소재 부문을 담당하고 있는 케미컬 부문은 PE, CA, PVC 등을 만들고 있으며, 가공소재를 다루는 한화첨단소재는 자동차부품과 산업용 소재 등을 다루고 있다.
 
5. 그리고 태양광을 만드는 한화큐셀은 셀/모듈 태양광 제품을 만들어서 팔고 있다. 기타에는 전자소재를 만드는 한화이센셜, 한화도시개발이 있다. 일단 태양광부터 하나씩 뜯어보도록 하겠다.
 

그렇다면 왜 태양광인가?

 


6. 현재 미국은 심각한 전력문제에 직면해 있다. 전력시설이 노후화된 건 둘째 치고, 데이터센터 급증으로 인한 전력공급이 부족해지고 있고, 하이퍼스케일러들은 전력이 공급이 되는 부지를 찾는데 어려움을 겪고 있다.
 
7. 뒤늦게 정신 차리고 원전을 지어보려고 하고 있지만 미국과 유럽은 원전 경쟁력을 잃은 지 오래되었다. 그나마 프랑스가 원전을 만들 능력이 있으나, 우리나라보다 비싼 건 둘째 치고, 공사기간조차도 제대로 맞추지도 못한다.
 
8. 프랑스의 57번째 원전인 플라망빌 원전 3호기의 가동은 예정보다 12년이 지난 2024년에 원자로가 가동되기 시작하였고, 예산은 4배가 초과되었다.
https://www.hankyung.com/article/202409034191i
 

 

프랑스, 25년만 신규 원자로 '플라망빌 원자로' 가동

프랑스, 25년만 신규 원자로 '플라망빌 원자로' 가동, 플라망빌 3호기, 올가을 전력 공급 예정 숙련 인력 부족해 12년 지연돼 마크롱의 2050 탄소중립 전략, 원전 확대 추진

www.hankyung.com

 
9. 이 밖에 일본, 러시아, 한국이 있으나 결국 예산과 시간을 맞추려면 한국밖에 없다. 그러나 원전의 건설기간은 건설시간이 제일 빠른 한국 기준으로 7년이다. 참고로 프랑스는 원전개발에 25년이 걸렸다.
 
10. SMR? SMR과 MMR의 장점은 생산단가가 아니다. 도시 한가운데 세울 수 있을 수 있는 안정성과 짧은 공사기간이다.
 
11. SMR을 만들게 되면 공사기간은 3년 이하로 단축된다. https://www.opinionnews.co.kr/news/articleView.html?idxno=119822

 

[이슈분석] 새로운 기회의 땅 '소형모듈원전(SMR)'이 온다 - 오피니언뉴스

[오피니언뉴스=박대웅 기자] 이재명 정부 출범을 앞두고 국내 주요 원전 업계에선 \'탈원전\'을 걱정하는 목소리가 새어 나왔다. 실제로 이재명 대통령은 대선 경선 기간 김문수 국민의힘 후보와

www.opinionnews.co.kr

 
12. 뉴스케일 파워 기준으로 전력생산단가도 기존 목표(55달러/㎿h)에서 상승하여 현재는 최대 120달러에 이른다. 그리고 건설 비용도 기존 53억 달러(한화 약 7조 원)에서 93억 달러(한화 약 12조 원)로 증가했다.
https://news.mtn.co.kr/news-detail/2024061815545284501

 

[이슈체크] 전력시장 판 뒤집는다는 SMR 둘러싼 경제성 논쟁

소형 모듈 원전(SMR·Small Modular Reactor)에 자주 붙는 수식어가 ‘게임 체인저’입니다. 전력 시장의 판을 바꿀 잠재력을 갖췄다는 뜻이죠. 기존 원전에 비해 개선점이 많아 그렇습니다. 여기에 투

news.mtn.co.kr

 
13. 물론 한국처럼 재생에너지를 깔기 어렵거나 에너지원을 수입해서 쓰는 나라에서는 SMR이 경쟁력이 있을 수 있지만 미국에서는 전력생산에 있어 태양광에 비해 경쟁력이 없다. 왜냐면 미국은 토지가 부족해서 태양광을 못 까는 나라가 아니기 때문이다.
 
14. 물론 이 기사에 따르면 건설 단가를 KWe당 3500달러, 발전 단가를 MWh당 65달러로 책정한다고 하는데 이렇게 되면 한국 원전의 kW당 건설단가인 3000달러랑 맞먹게 되어서 경제력이 생길 수도 있으나 2028년 이후의 이야기이다.
https://www.todayenergy.kr/news/articleView.html?idxno=288257
 
14. 참고로 2024년 4분기 태양광 발전 구매 계약(PPA) 평균 가격은 Mwh당 56.76이다. 
https://energy.ketep.re.kr/globalenergy/site/main/board/energy_news/22632

 

Home

세계 에너지시장 정보, Home, 세계 에너지시장 정보

energy.ketep.re.kr

 
15. 미국 에너지부 산하 연구기관인 로렌스 버클리 국립 연구소 연구진의 분석에 따르면, 우선 사회적 비용을 반영하지 않더라도 대규모 태양광 발전(20MW, 100MW)의 LCOE는 2030년까지 47~48달러(약 6만 8천 원)/MWh로 낮아진다. 
 
16. 고정형 해상풍력 발전의 LCOE는 2030년에 약 100달러(약 14만 4천 원)/MWh로 줄어들어 석탄 발전과 비슷한 수준이 될 것으로 예상되었다.
 
17. 참고로  원자력 발전의 건설비는 같은 기간 동안 매년 2.6% 증가하여 2030년에는 50달러(약 7만 2천 원)/MWh 수준이 될 것으로 전망한다. 자력 발전의 LCOE는 사고 위험 비용이 반영됨에 따라 14~20% 증가하여 2030년에는 60달러/MWh 가까이 상승할 것으로 전망되었다. 
 

 

[보도자료] “태양광 발전 비용, 5년 안에 원전보다 저렴해진다” : 플랜1.5

“태양광 발전 비용, 5년 안에 원전보다 저렴해진다”대규모 태양광은 2020년대 후반, 중소규모 태양광은 2030년경 원전보다 저렴해져탄소배출비용 고려 시 해상풍력 발전 비용은 2030년 이전에 화

www.plan15.org

 
17. ESS를 포함해도 가격이 저렴한 편이다. 미국 서부 기준으로 태양광+ESS 조합의 LCOE는 104달러/MWh 수준으로, 석탄(118달러), 원전(182달러) 보다 낮다. 이는 2019년 대비 43% 하락한 수치로, 배터리와 태양광 설치비용의 동반 하락이 주요 원인이다. 
https://www.biznews.or.kr/news/article.html?no=16157

 

[산업경제뉴스] ‘태양광+ESS’ 조합, 기저발전 대체할 에너지 혁명 일으킬까?

[산업경제뉴스 민경종 기자] 태양광과 에너지저장장치(ESS)의 조합이 석탄, 원자력 같은 기존의 ‘기저발전원’을 대체할 수 있는 ‘에너지혁명’ 국면으로 진입했다는 분석이 나와 에너지업계

www.biznews.or.kr

 
18. 조사기관에 따라 다르지만 태양광이 발전단가가 다른 발전원에 비해서 비싸지 않다. 즉 발전단가가 비싸지 않으면서 건설기간이 제일 짧은 것이 태양광이다.
 
19. SOFC도 미국 에너지부 산하 연구기관인 로렌스 버클리 국립 연구소 연구진의 분석에 따르면 발전단가가 현재 더 싼 것은 맞다. 그러나 볼륨에너지만 봐도 알겠지만 여기는 이미 숏티지시장이다. 
 
20. 천연가스 가격이 많이 떨어져서 발전단가가 낮아지긴 했지만 가스터빈이 숏티지다. 두산에너빌리티가 미국시장을 뚫은 거만 봐도 얼마나 숏티지길래 두산에너빌리티한테 기회가 열리나 싶다. 아마 두 에빌의 미국 가스터빈 수주 계속될 거다. 이미 GE만 해도 2 3년 치 백로그가 있다.
 
20. 결론적으로 SOFC 숏티지, 가스터빈 숏티지, SMR은 발전단가가 어떻게 될지도 아무도 모르고, 언제 제대로 만들어질지도 모름, 원전은 우리나라 말고 미국에 지을 수 있는 나라 거의 전무한 상황이라 숏티지 확정이다. 그리고 트럼프가 풍력은 극혐 한다.(그런데 결국 풍력도 할 거 같긴 하다)
 
21. 결론은 태양광의 수요가 떨어진다는 것은 사실이 아니다!!
 
22. 미국도 같은 기간 18GW(2022년), 27GW(2023년), 37GW(2024년)로 성장했지만 미국 에너지정보청(EIA)은 정책 불확실성에 따른 발주 지연으로 2025년 34GW로 역성장을 예상하고 있긴 하지만 장기적으로 성장할 수밖에 없다!!


https://www.hankyung.com/article/202509170864i

 

태양광, 공급과잉 완화…투자 체크포인트는[산업별 ESG 투자 리포트]

태양광, 공급과잉 완화…투자 체크포인트는[산업별 ESG 투자 리포트], 이미경 기자, 경제

www.hankyung.com

 
 
 

현재까지는 공급과잉, 이제는 숏티지

 
22. 미국 내에서 태양광이 공급과잉이었던 것은 지나가던 개도 아는 사실이다. 중국 태양광 업체들이 동남아를 통해서 우회 수출로 미국으로 수출해 왔다.
 
23. 미국은 태양광 모듈 수입 중 약 90%를 동남아 4개국에 의존하고 있다. 
 
24. 올해 3분기 태양광 모듈 가격은 0.1달러로 지난 2022년 1분기 0.27달러 대비 절반이하로 떨어진 것으로 알려졌다. 
 
25. 중국 기업들은 미국 태양광 시장 점유율 약 70%를 차지하고 있으며 중국을 제외하면 가정용 패널에서는 한화큐셀이 1등이다.
 
https://www.metroseoul.co.kr/article/20241222500283

 

美 태양광 모듈 가격 반등 전망…국내 태양광 산업에 '청신호'

미국 시장 내 태양광 모듈 가격이 상승세를 보일 것으로 관측돼 국내 태양광 업계에 호재로 작용할 것이라는 의견이 나오고 있다. 제품 가격에 원자재 가격 상승분이 반영되면서 수익성 개선이

metroseoul.co.kr

 
26. 미국 상무부는 지난 4월 캄보디아(652~3,521%), 말레이시아(15~252%), 태국(367~947%), 베트남(121~814%)에 소재한 업체별로 상이한 반덤핑/상계관세(AD/CVD)를 확정

출처:https://csf.kiep.go.kr/issueInfoView.es?article_id=57417&mid=a20200000000&board_id=21

 
27. 중국이 미국에 수출하기 위해 다른 곳에 공장 세우기 시작하는 중이다. 그러나 한화큐셀은 곧 미국 공장 완공된다.
 
https://www.g-enews.com/article/Global-Biz/2025/06/2025061418093230130c8c1c064d_1

 

中 태양광 기업들, 트럼프 관세 우회 위해 해외 생산 확대 - 글로벌이코노믹

중국의 주요 태양광 및 에너지 저장 기업들이 미국의 고율 관세를 피하기 위해 해외 생산 현지화를 적극 추진하고 있다고 13일(현지시각) 사우스차이나모닝포스트(SCMP)가 보도했다.미국과 중국

www.g-enews.com

 
28. 미국 국제무역위원회(USITC) 데이터에 따르면, 관세 부과 이후 1년 만에 4개국(캄보디아, 말레이시아, 태국, 베트남)으로부터의 미국 수입은 83% 감소하는 등 이미 붕괴되었다.


https://www.g-enews.com/article/Global-Biz/2025/09/2025090617093834330c8c1c064d_1

 

美 '태양광 관세 폭탄', 아세안에 '경고'… "다각화 없인 수출 시장 잃는다" - 글로벌이코노믹

미국의 새로운 반덤핑 및 상계관세(AD/CVD) 조사가 아세안(ASEAN)의 태양광 산업에 심각한 위협을 가하고 있다.이는 미·중 전략적 경쟁의 십자포화에 휘말린 아세안이 최대 수출 시장을 잃을 위기

www.g-enews.com

 
29. 그러나 아직 숏티지 신호는 나오고 있지 않다. 왜냐면 아직도 공급과잉으로 인한 재고가 많이 남아있기 때문이다.

30. 라오스·인도·인도네시아산 중국 우회 물량에 대한 미국의 AD/CVD 조사가 진행 중이며, 예비판 정은 각각 2025년 10~12월, 최종판정은 2026년 2~4월에 나올 것으로 보인다.
 
31. 물론 3분기 실적 때는 6~7월 품질 문제로 인한 셀 가동 차질 및 이에 따른 미국 모듈 설비 가동률 하락 영향으로 가장 안 좋은  실적 예상
 
32. 중국 폴리실리콘 업체들이 덤핑을 그만하기 시작하면서 폴리실리콘 가격 급등으로 인한 영업마진 압박이 있다.

출처: sunsir

 
33. 그러나 미국 재고량이 오링이 나는 순간, 태양광 패널의 가격은 급등할 가능성이 높다.
 
34. 미국 내에서 태양광 모듈을 만드는 기업은 딱 3군데이다. 퍼스트솔라, 한화솔루션, 캐나디안솔라이다.
 
35. 퍼스트솔라는 미국내에서 2026년까지 14GW, 한화솔루션은 8.4GW, 캐나디안 솔라는 3GW이다.
 
36. 위에서 언급했듯이 태양광 시장의 예측이 34GW이지만 이 세 업체를 합쳐도 26GW이다. 중국업체는 더 이상 미국으로 수출하는 것이 관세 때문에 불가능하다.
 
37. 그리고 위에서 언급한 캐나디안 솔라는 강화된 미국 보조금기준을 맞추지 못한다. 중국산 폴리실리콘과 웨이퍼를 쓰기 때문이다. 
 
38. 미국 내에서 잉곳-웨이퍼-셀-모듈로 이어지는 태양광 모듈을 만들 수 있는 기업은 딱 두 군데, 한화솔루션, 퍼스트솔라가 끝이다.
 
39. 셀 6.2GW / 모듈 2.7GW 진천공장, 말레이시아공장은 셀과 모듈 생산능력이 각각 2.3GW이다.


https://biz.newdaily.co.kr/svc/article_print.html?no=2023122800068

 

Save Internet 뉴데일리

▲ ⓒ연합뉴스 국내에서 위축됐던 태양광 업계가 미국발 보조금에 모처럼 훈풍이 불고 있다. 한화솔루션·OCI홀딩스 등 대표 태양광 업체들은 미국을 비롯해 동남아 등 해외 거점의 생산 능력을

biz.newdaily.co.kr

https://qcells.com/kr/get-support/factory

 

공장소개 - Qcells Korea

한화큐셀 한국 공장의 뛰어난 퀀텀, 제로캡의 태양광 셀, 태양광 모듈 제조 역량은 태양광 솔루션의 새로운 차원을 선도합니다.

qcells.com

 
40. 결국 한화솔루션이 하려는 건 부족한 셀을 한국하고 말레이시아에서 만들어서 보내는 것이다. 이렇게 되면 미국 내 생산되는 폴리실리콘과 잉곳까지 고려하면 IRA 요건인 45퍼센트를 맞출 수 있다. 
 
41. 또한 만약 숏티지가 나서 가격이 오른다면 진천 하고 말레이시아에서 만든 것도 미국으로 보낼 수 있다.
 
42. 셀과 모듈이 보통 1대 1로 매칭되어 제작되는데 계산해 보면 모듈 =2.7+2.3+8.4=13.4, 셀 = 2.3+6.2+3.3= 11.8GW인데 OCI 미국 내 셀 공장이 2026년 하반기까지 목표 생산능력이 2GW인 것을 생각하면 한국 회사로만으로도 셀과 모듈의 밸류체인이 완성된다. 
 
https://blog.naver.com/yes_invest/223841927313?trackingCode=rss

 

[산업분석] 지금 태양광 산업을 보는 이유 (feat. 한화솔루션)

최근 핫한 에너지 섹터를 공부하면서 뜬금없는 부분에서 매력적인(내 기준) 섹터가 눈에 들어왔다. 태양광 ...

blog.naver.com

 
43. 요약하자면 한화솔루션이 중국 반덤핑 때리기의 최대 수혜자이다. 아직까지는 태양광 시장이 안 좋고 미국 공장이 완공이 안돼서 공장 가동률이 2025년 반기 보고서기준 21퍼센트밖에 안된다.
 

반응형
반응형

## 벡터 공간의 10가지 규칙 📜

벡터 공간은 **벡터의 집합(V)**과 두 가지 연산, 즉 **덧셈(⊕)**과 **스칼라 곱(⊙)**으로 이루어져 있습니다. 이 10가지 규칙은 크게 '덧셈에 관한 5가지 규칙'과 '스칼라 곱에 관한 5가지 규칙'으로 나뉩니다.

### 덧셈에 관한 5가지 규칙 (Axioms 1-5)

이 규칙들은 집합 안에서 덧셈이 얼마나 안정적이고 예측 가능하게 작동하는지를 보장합니다.

  1. 덧셈에 대해 닫혀있다 (Closed under addition)
    • u ⊕ v는 집합 V 안에 있다.
    • 의미: 집합 V 안에 있는 두 벡터를 더한 결과는 반드시 다시 집합 V 안에 있어야 합니다. 덧셈을 통해 집합 밖으로 '탈출'할 수 없습니다.
  2. 덧셈의 교환법칙 (Commutative)
    • u ⊕ v = v ⊕ u
    • 의미: 더하는 순서를 바꿔도 결과는 같습니다.
  3. 덧셈의 결합법칙 (Associative)
    • (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w)
    • 의미: 세 개 이상의 벡터를 더할 때, 어떤 쌍을 먼저 더하든 결과는 같습니다.
  4. 덧셈에 대한 항등원 (Additive identity)의 존재
    • 집합 V 안에는 **영벡터(0)**가 존재해서, 모든 벡터 u에 대해 0 ⊕ u = u를 만족한다.
    • 의미: 더해도 아무런 변화를 주지 않는 '기준점' 같은 벡터가 반드시 있어야 합니다. 손글씨로 쓰신 것처럼 **"덧셈에 대한 항등원"**이 바로 이 영벡터입니다.
  5. 덧셈에 대한 역원 (Additive inverse)의 존재
    • 모든 벡터 u에 대해, 더했을 때 영벡터를 만드는 짝꿍 벡터 -u가 반드시 존재한다. (u ⊕ (-u) = 0)
    • 의미: 모든 벡터는 자신의 '반대' 방향 벡터를 가지고 있습니다. 이 규칙 덕분에 우리는 뺄셈을 정의할 수 있습니다.

### 스칼라 곱에 관한 5가지 규칙 (Axioms 6-10)

이 규칙들은 벡터를 늘리거나 줄이는 스칼라 곱셈이 어떻게 작동해야 하는지를 정의합니다.

  1. 스칼라 곱에 대해 닫혀있다 (Closed under scalar multiplication)
    • c ⊙ u는 집합 V 안에 있다.
    • 의미: 집합 안의 어떤 벡터를 가져와 실수(스칼라)배를 해도, 그 결과는 절대 집합 밖으로 나가지 않습니다.
  2. 분배법칙 1 (Distributive)
    • c ⊙ (u ⊕ v) = (c ⊙ u) ⊕ (c ⊙ v)
    • 의미: 벡터들을 먼저 더한 뒤 스칼라배를 하는 것과, 각각 스칼라배를 한 뒤 더하는 것은 결과가 같습니다. ()
  3. 분배법칙 2 (Distributive)
    • (c + d) ⊙ u = (c ⊙ u) ⊕ (d ⊙ u)
    • 의미: 스칼라들을 먼저 더한 뒤 벡터에 곱하는 것과, 각각의 스칼라를 벡터에 곱한 뒤 더하는 것은 결과가 같습니다. ()
  4. 스칼라 곱의 결합법칙 (Associative)
    • c ⊙ (d ⊙ u) = (cd) ⊙ u
    • 의미: 여러 스칼라를 곱할 때, 어떤 순서로 곱하든 결과는 같습니다. ()
  5. 곱셈에 대한 항등원 (Multiplicative identity)
    • 1 ⊙ u = u
    • 의미: 어떤 벡터든 스칼라 1을 곱하면 자기 자신이 그대로 나옵니다.

 

핵심은, 어떤 집합이 벡터 공간이 되려면 **10가지 규칙(공리)**을 모두 만족해야 한다는 것입니다. 하나라도 실패하면 벡터 공간이 될 수 없습니다.


## 1. 벡터 공간의 표준 예시 (Examples 1 & 2)

이 페이지의 첫 두 예제는 벡터 공간의 가장 대표적인 사례들입니다.

  • 예제 1 (Euclidean Vector Spaces): 우리가 흔히 아는 공간(화살표 벡터들의 집합)은 우리가 아는 일반적인 덧셈과 스칼라 곱셈에 대해 벡터 공간이 됩니다.
  • 예제 2 (Vector Spaces of Matrices): 모든 행렬들의 집합 역시, 행렬의 성분별 덧셈과 스칼라 곱셈에 대해 벡터 공간이 됩니다. 이는 '벡터'라는 개념이 화살표뿐만 아니라 행렬까지 확장될 수 있음을 보여줍니다.

## 2. 벡터 공간이 아닌 경우 (Example 3) 🚫

이것이 이 페이지의 핵심 문제입니다. 겉보기에는 간단해 보이지만, 정의된 연산 규칙이 특이해서 10가지 규칙 중 일부를 만족하지 못하는 경우입니다.

  • 집합: (모든 실수의 집합)
  • 특이한 연산 규칙:
    • 덧셈:
    • 스칼라 곱: (이건 일반적인 곱셈과 같습니다)

문제는 이 연산 규칙 하에서 덧셈의 교환법칙은 성립하지만, 결합법칙은 성립하지 않음을 보이라는 것입니다.

1. 교환법칙 (Commutative) 확인 - 성공 ✅

교환법칙이 성립하려면 여야 합니다.

일반 덧셈에서 는 같으므로, 교환법칙은 성립합니다. (손글씨로 '성립'이라고 쓰신 부분이 맞습니다.)

2. 결합법칙 (Associative) 확인 - 실패 ❌

결합법칙이 성립하려면 여야 합니다. 좌변과 우변을 각각 계산해 보겠습니다.

  • 좌변:
    1. 먼저 괄호 안의 를 계산하면 입니다.
    2. 이제 $(2a+2b)$와 를 새로운 덧셈 규칙으로 더합니다:
  • 우변:
    1. 먼저 괄호 안의 를 계산하면 입니다.
    2. 이제 와 $(2b+2c)$를 새로운 덧셈 규칙으로 더합니다:
  • 비교: 좌변()과 우변()은 같지 않습니다.

## 최종 결론 🎓

덧셈에 대한 결합법칙 (벡터 공간의 10가지 규칙 중 3번 규칙)이 성립하지 않기 때문에, 이 집합 V는 주어진 특이한 연산 규칙 하에서 벡터 공간이 아닙니다 (is not a vector space).

 

이 문제는 겉보기에는 평범한 2차원 벡터() 같지만, 덧셈과 스칼라 곱의 규칙을 완전히 새롭게 정의했을 때에도 벡터 공간(Vector Space)의 10가지 규칙을 모두 만족하는지 확인하는 매우 좋은 예제입니다.

결론부터 말씀드리면, 이 집합 V는 주어진 특이한 연산 규칙 하에서 벡터 공간이 맞습니다.

핵심은 우리가 평소에 알던 '상식'을 버리고, 오직 문제에 주어진 새로운 규칙만을 사용해서 10가지 공리를 하나씩 확인하는 것입니다. 특히 영벡터역원을 찾는 과정이 중요합니다.


## 문제 분석: 새로운 연산 규칙 📜

  • 집합 V: 모든 2차원 순서쌍 (a, b)의 집합.
  • 새로운 덧셈(⊕):(두 벡터를 더할 때, 각 성분에 1을 추가로 더합니다.)
  • 새로운 스칼라 곱(⊙):(스칼라배를 할 때, 각 성분에 c-1을 추가로 더합니다.)

## 핵심 공리(Axiom) 증명 과정

모든 10가지 규칙을 확인해야 하지만, 가장 중요하고 헷갈리는 것은 **영벡터(항등원)**와 역원을 찾는 것입니다.

1. 이 공간의 '영벡터'는 무엇인가? (Axiom 4: Additive Identity)

우리가 찾아야 할 영벡터를 $\mathbf{0} = (z_1, z_2)$라고 합시다. 영벡터의 정의는 어떤 벡터 $\mathbf{v}$에 더해도 자신을 변화시키지 않는 것입니다. 즉, 여야 합니다.

새로운 덧셈 규칙을 이용해 이 식을 풀어보면,

이 결과가 원래 벡터 $(v_1, v_2)$와 같아야 합니다. 따라서 각 성분을 비교하면,

따라서 이 벡터 공간의 영벡터는 $(0, 0)$이 아니라 입니다!

2. 모든 벡터는 '역원'을 가지는가? (Axiom 5: Additive Inverse)

모든 벡터 $\mathbf{v} = (v_1, v_2)$에 대해, 그 역원 $-\mathbf{v} = (w_1, w_2)$를 더했을 때 방금 구한 **영벡터 **이 나와야 합니다. 즉, 입니다.

새로운 덧셈 규칙을 이용해 이 식을 풀어보면,

이 결과가 영벡터 $(-1, -1)$과 같아야 합니다.

따라서 벡터 $(v_1, v_2)$의 역원은 입니다. 모든 벡터 $\mathbf{v}$에 대해 그 역원이 항상 존재함을 확인했습니다.


## 나머지 규칙들

  • 닫혀있는가? (Axioms 1, 6): 덧셈과 스칼라 곱의 결과는 모두 순서쌍 (실수, 실수) 형태이므로, 집합 V 안에 머무릅니다. (성립)
  • 교환/결합/분배 법칙 등 (Axioms 2, 3, 7, 8, 9, 10): 이 규칙들도 모두 성립합니다. 예를 들어 교환법칙을 보면,
    • 일반 덧셈은 교환법칙이 성립하므로 위 두 결과는 같습니다. (성립)

## 최종 결론 🎓

주어진 집합 V와 두 개의 특이한 연산은 벡터 공간의 10가지 규칙을 모두 만족하므로, V는 벡터 공간이 맞습니다.

이 문제는 '벡터 공간'이라는 개념이 얼마나 추상적이고 강력한지를 보여줍니다. 덧셈과 곱셈의 규칙만 잘 정의되면, 우리가 상상하지 못했던 형태의 영벡터와 역원을 가지는 새로운 '공간'을 만들어낼 수 있습니다.

 

 

 

이 페이지에 있는 벡터 공간의 두 가지 기본 정리를 명확하게 풀어 설명해 드리겠습니다. 이 정리들은 벡터 공간의 '상식'과도 같은 기본 규칙들을 증명하는 과정입니다.

## 정리 1: 덧셈에 대한 역원은 유일하다

"벡터 공간 V에서, 모든 벡터의 덧셈에 대한 역원(additive inverse)은 유일하다(unique)."

  • 쉬운 설명 🤔: 어떤 벡터 u가 있을 때, u에 더해서 영벡터(0)를 만드는 짝꿍 벡터(-u)는 세상에 딱 하나뿐이라는 뜻입니다. 마치 숫자 5에 더해서 0을 만드는 숫자가 -5 하나뿐인 것과 같습니다.
  • 증명 과정 👣:
    1. 가정: 만약 u의 역원이 vw, 이렇게 두 개라고 가정해 봅시다. (증명의 목표는 결국 vw가 사실 같은 벡터임을 보이는 것입니다.)
      • 즉, u ⊕ v = 0 이고 u ⊕ w = 0 입니다.
    2. 시작: v에서 시작합니다. 벡터 공간 규칙 4번(항등원)에 의해, v는 v ⊕ 0와 같습니다.
    3. 치환: 위 가정에서 u ⊕ w = 0 이므로, 0 대신 u ⊕ w를 대입합니다.
    4. 재결합: 벡터 공간 규칙 3번(결합법칙)을 이용해 괄호의 위치를 바꿉니다.
    5. 다시 치환: 처음 가정에서 vu의 역원이었으므로 v ⊕ u = 0 입니다. (v oplus u)를 0으로 바꿉니다.
    6. 마무리: 벡터 공간 규칙 4번(항등원)에 의해, 0 ⊕ w는 그냥 w입니다.
    7. 결론: v로 시작했는데 w로 끝났습니다. 따라서 vw는 같은 벡터였던 것입니다. 즉, 역원은 유일합니다.

## 정리 2: 영벡터와 스칼라 곱의 기본 성질

이 정리는 벡터 공간의 10가지 기본 규칙으로부터 유도할 수 있는 4가지 '당연해 보이는' 성질들을 나열합니다.

  1. 0u = 0
    • 의미: 숫자 0을 어떤 벡터 u에 곱하면, 그 결과는 영벡터 0이 됩니다.
  2. c0 = 0
    • 의미: 어떤 숫자 c영벡터 0에 곱하면, 그 결과는 영벡터 0이 됩니다.
  3. (-1)u = -u
    • 의미: 숫자 -1을 벡터 u에 곱하면, 그 결과는 u의 **덧셈에 대한 역원(-u)**과 같습니다. 즉, 벡터의 방향을 정반대로 뒤집는 것과 같습니다.
  4. 만약 cu = 0 이면, c = 0 또는 u = 0 이다.
    • 의미: 숫자와 벡터를 곱한 결과가 영벡터가 되었다면, 둘 중 하나는 반드시 0이어야 합니다. (숫자가 0이었거나, 벡터가 영벡터였거나) 이는 일반 대수학의 인수분해 원리(ab=0 이면 a=0 또는 b=0)와 매우 유사합니다.

 

 

**벡터 공간(Vector Space)**의 정의와 관련된 핵심 사실들을 3가지로 요약한 것입니다. 각 항목을 명확하게 풀어 설명해 드릴게요.


## 1. 벡터 공간인지 확인하는 방법

  1. 어떤 집합 V가 주어진 덧셈과 스칼라 곱 연산에 대해 벡터 공간인지를 판별하려면, **10가지 벡터 공간 공리(규칙)**를 모두 만족하는지 확인해야 한다.

이것은 어떤 집합이 '벡터 공간'이라는 자격을 얻기 위한 유일한 시험입니다. 겉보기에 벡터처럼 보인다고 해서 벡터 공간이 되는 것이 아니라, 덧셈과 스칼라 곱에 대해 정의된 10가지 규칙을 하나도 빠짐없이 통과해야만 합니다. 하나라도 실패하면 벡터 공간이 아닙니다.


## 2. 벡터 공간의 대표적인 예시들 🌟

  1. 유클리드 공간 Rⁿ, 행렬 집합 Mₘₓₙ, 그리고 n차 이하의 다항식 집합 Pₙ은 모두 표준적인 연산에 대해 벡터 공간이다.

이것은 우리가 앞으로 계속 마주칠 벡터 공간의 가장 중요한 세 가지 예시입니다. '벡터'라는 개념이 단순히 화살표에만 국한되지 않는다는 것을 보여줍니다.

  • 유클리드 공간 (Rⁿ): 우리가 흔히 생각하는 (x, y)나 (x, y, z) 같은 좌표 또는 화살표 벡터들의 집합입니다.
  • 행렬 (Mₘₓₙ): 같은 크기(m x n)의 모든 행렬들의 집합 역시, 성분별 덧셈과 스칼라 곱에 대해 벡터 공간을 이룹니다.
  • 다항식 (Pₙ): 특정 차수(n) 이하의 모든 다항식들의 집합도 벡터 공간입니다. (예: 모든 2차 이하 다항식의 집합)

## 3. 모든 벡터 공간에서 성립하는 기본 성질

  1. 모든 벡터 공간에서 덧셈에 대한 역원은 유일하다. 또한 0u = 0, c0 = 0, (-1)u = -u가 성립한다. 추가로, cu = 0이면 c=0 또는 u=0이다.

이것들은 10가지 기본 규칙으로부터 자연스럽게 파생되는 '상식'과 같은 속성들입니다.

  • 역원의 유일성: 어떤 벡터 u에 더해서 영벡터를 만드는 짝꿍(-u)은 세상에 단 하나뿐입니다.
  • 0의 역할:
    • 0**u** = **0**: 숫자 0을 어떤 벡터에 곱하면 영벡터가 됩니다.
    • c**0** = **0**: 영벡터에 어떤 숫자를 곱해도 영벡터가 됩니다.
    • (-1)**u** = -**u**: 숫자 -1을 벡터에 곱하면 그 벡터의 역원이 됩니다.
  • 영인자 정리: 숫자와 벡터를 곱한 결과가 영벡터가 되었다면, 둘 중 하나는 반드시 0이어야 합니다 (숫자가 0이었거나, 벡터가 영벡터였거나).

 

반응형
반응형

## 1. 통계 모델과 신경망 모델의 결정적 차이

가장 먼저, 두 방식의 근본적인 차이점을 알아야 합니다.

  • 통계 기반 방식 (n-gram):
    • "직접 카운트해서 확률을 계산한다."
    • P(B|A) = count(A,B) / count(A) 처럼, 학습 데이터에 등장하는 횟수를 직접 세어서 확률 값을 구했습니다.
  • 신경망 기반 방식:
    • "확률을 잘 맞추도록 모델을 학습시킨다."
    • 직접 횟수를 세지 않습니다. 대신, **학습 목표(Learning Objective)**를 설정하고, 그 목표에 도달하도록 모델의 수많은 파라미터(가중치)를 점진적으로 업데이트합니다.
    • 이때 사용되는 핵심적인 3요소는 다음과 같습니다.
      1. 학습 목표 (Learning Objective): 모델이 달성해야 할 최종 목표. 언어 모델의 경우 "주어진 학습 데이터(문장들)의 확률을 최대화하는 것"입니다.
      2. 손실 함수 (Loss Function): 현재 모델이 정답에서 얼마나 멀리 떨어져 있는지(오차)를 측정하는 함수입니다. 손실(Loss) 값이 클수록 모델 성능이 나쁘다는 뜻이며, 학습은 이 **손실 값을 최소화(minimize)**하는 방향으로 진행됩니다.
      3. 최적화 (Optimization): 손실 함수를 최소화하기 위해 모델의 파라미터를 어떤 방향으로, 얼마나 업데이트할지 결정하는 과정입니다. (e.g., 경사 하강법, Gradient Descent)

🔑 핵심: 신경망 모델은 복잡한 함수를 통해 패턴을 학습하기 때문에, n-gram 모델이 할 수 없었던 장거리 의존성이나 단어 간의 비선형적인 관계(e.g., 의미적 유사성)를 파악할 수 있게 됩니다.


## 2. 최대 우도 추정 (Maximum Likelihood Estimation, MLE)

신경망 언어 모델의 학습 목표인 "주어진 문장들의 확률을 최대화"하는 통계적 원리가 바로 **최대 우도 추정(MLE)**입니다.

  • 기본 개념:
  • "우리가 가지고 있는 데이터가 가장 그럴듯하게(likely) 관찰될 수 있도록, 모델의 파라미터(θ)를 결정하자."
  • 직관적 예시:
    • 어떤 동전을 10번 던졌더니 앞면이 7번 나왔다고 합시다. 이 동전의 앞면이 나올 확률(θ)은 얼마일까요?
    • MLE는 "10번 중 7번의 앞면"이라는 관찰 결과를 가장 잘 설명하는 θ값을 찾습니다. 상식적으로 그 값은 0.7일 것입니다. θ가 0.7일 때, 10번 중 7번 앞면이 나올 가능성(Likelihood)이 가장 높기 때문입니다.
  • 언어 모델에 적용:
    • 수많은 문장으로 이루어진 학습 데이터가 주어집니다.
    • 신경망 모델의 수백만 개 파라미터(θ)를 조정하여, 이 학습 데이터에 있는 모든 문장들이 나타날 확률의 곱(결합 확률)이 최대가 되도록 만듭니다.
  • 수식:
    • L(θ): 우도(Likelihood) 함수. 모델 파라미터 θ가 얼마나 '그럴듯한지' 나타냅니다.
    • θ: 모델의 모든 파라미터(가중치) 집합.
    • Π: 모든 원소를 곱하라는 기호.
    • P_θ(sentence): 현재 파라미터 θ를 가진 모델이 계산한 한 문장의 확률.
    • 목표: L(θ)를 최대로 만드는 θ를 찾는 것.
  • 역사적 배경: MLE는 1920년대 통계학자 **로널드 피셔(Ronald Fisher)**에 의해 정립된, 매우 유서 깊고 신뢰도 높은 통계적 원리입니다. 현대 통계학과 머신러닝의 근간을 이루는 핵심 개념 중 하나입니다.

## 3. 신경망 언어 모델의 예시: ELMo

슬라이드에 다시 등장한 ELMo는 바로 이런 신경망 기반 접근법의 성공적인 예시입니다.

  • ELMo (Embeddings from Language Models):
    • 거대한 텍스트 데이터를 사용해 양방향 LSTM(bi-LSTM) 구조의 신경망 언어 모델을 미리 학습시킵니다.
    • 이 과정에서 MLE 원리를 사용해, 주어진 문장들의 확률을 최대화하도록 모델을 훈련합니다.
    • 그 결과, n-gram과 달리 **문맥에 따라 단어의 의미가 달라지는 것(e.g., 동음이의어)**을 파악하는 능력을 갖추게 됩니다. 이는 신경망 모델이 단순 카운트를 넘어 단어의 의미와 문맥적 관계를 학습했기 때문에 가능합니다.

## 🦉 시험 대비 최종 요약

  • 패러다임 전환: 통계 모델의 직접 카운트 방식에서, 신경망 모델의 손실 함수 최소화를 통한 학습 방식으로 전환되었습니다.
  • 최대 우도 추정 (MLE): 신경망 모델의 핵심 학습 원리. 관찰된 학습 데이터의 확률(우도)을 최대로 만드는 모델 파라미터(θ)를 찾는 방법입니다.
  • 신경망 모델의 핵심 장점: n-gram이 해결하지 못했던 장거리 의존성단어의 의미 관계를 학습할 수 있습니다. ELMo가 그 대표적인 예시입니다.

 

신경망 언어 모델의 학습 원리인 **최대 우도 추정(Maximum Likelihood Estimation, MLE)**을 구체적으로 설명하는 매우 중요한 부분입니다. 시험에 완벽하게 대비할 수 있도록 각 개념을 명확하게 짚어 드릴게요.


## 1. 우도(Likelihood)란 무엇인가? - "얼마나 그럴듯한가"

MLE를 이해하려면 먼저 '우도(Likelihood)'의 개념을 알아야 합니다.

  • 직관적 의미: 단어 뜻 그대로 '그럴듯한 정도'입니다. 내가 관찰한 데이터가, 현재의 모델(파라미터) 하에서 얼마나 그럴듯하게(likely) 나타날 수 있는가를 나타내는 값입니다.
  • 확률(Probability)과의 차이점:
    • 확률: 모델(파라미터 θ)이 고정되어 있을 때, 특정 데이터(x)가 관찰될 가능성.
      • 예: "앞면이 나올 확률이 0.5인 **정상적인 동전(θ)**을 던질 때, 10번 중 앞면이 7번 나올 **확률(x)**은 얼마인가?"
    • 우도(Likelihood): 관찰된 데이터(x)가 고정되어 있을 때, 어떤 모델(파라미터 θ)이 이 데이터를 가장 잘 설명하는가.
      • 예: "10번 던져서 앞면이 7번 나오는 **데이터(x)**를 관찰했을 때, 이 동전의 앞면이 나올 확률이 0.7이라는 **모델(θ)**은 얼마나 그럴듯한가?"
  • 수식:
    • L(θ|x): 데이터 x가 주어졌을 때, 파라미터 θ의 우도
    • P(X=x|θ): 파라미터 θ가 주어졌을 때, 데이터 x의 확률
    • 핵심: 수식은 같지만, 무엇을 변수로 보느냐에 따라 관점이 다릅니다. 우도 함수에서 우리가 찾고 싶은 것은 최적의 θ 입니다.

## 2. 최대 우도 추정(MLE)의 작동 방식

MLE는 위에서 설명한 '우도(Likelihood)'를 **최대(Maximum)**로 만드는 모델 파라미터(θ)를 찾는 과정입니다. 언어 모델의 학습 과정을 단계별로 살펴보겠습니다.

  1. The Task (과제): 다음 단어 예측
    • 입력: 문맥이 주어집니다. (e.g., "the cat sat on")
    • 출력: 모델은 어휘집(Lexicon)에 있는 모든 단어에 대해, 다음에 등장할 확률을 출력합니다.
      • P(the|...) = 0.6
      • P(a|...) = 0.1
      • P(mat|...) = 0.2
      • ... (모든 확률의 합은 1)
  2. The "Correct Answer" (정답 데이터)
    • 슬라이드의 노란 박스가 핵심입니다: "실제 데이터에 해당하는 단어만 확률이 1이고, 나머지는 0"
    • 실제 다음 단어가 "mat"이었다면, 정답은 {mat: 1, the: 0, a: 0, ...} 와 같은 원-핫 인코딩(one-hot encoding) 형태로 표현됩니다.
  3. Calculating Likelihood (우도 계산)
    • 이 한 번의 예측에서 우도 값은 모델이 정답 단어에 부여한 확률 값입니다. 위 예시에서는 P(mat|...)에 해당하는 0.2가 됩니다.
  4. Learning Process (최적 파라미터 학습)
    • 모델의 학습 목표는 이 우도 값(0.2)을 정답(1)에 가깝게 만드는 것, 즉 최대화하는 것입니다.
    • 이 과정을 전체 학습 데이터에 있는 모든 문장, 모든 단어에 대해 반복합니다.
    • 최종적으로 모든 문장들의 우도를 곱한 전체 우도(L_n(θ; y))가 최대가 되는 지점을 찾습니다.
    • 수식:
      • θ̂: 우리가 찾으려는 최적의 파라미터 추정치
      • arg max: 뒤따르는 함수를 최대로 만드는 인자(θ)를 찾으라는 명령어
      • 의미: "우리의 전체 학습 데이터 y가 나타날 우도 L을 최대로 만드는 파라미터 θ를 찾아라." 이것이 바로 신경망 언어 모델의 학습 과정 전체를 요약하는 수식입니다.

## 🦉 시험 대비 최종 요약

  • 우도 L(θ|x): 내가 본 데이터(x)가 특정 모델(θ)에서 나왔을 '그럴듯한 정도'.
  • MLE 목표:우도를 최대로 만드는 최적의 모델 파라미터 θ̂를 찾는 것.
  • 언어 모델 학습 과정:
    1. 모델이 다음 단어에 대한 확률 분포를 출력한다.
    2. 모델이 실제 정답 단어에 부여한 확률값이 바로 그 예측의 우도가 된다.
    3. 학습(최적화)을 통해 이 우도 값을 1에 가깝게 만드는 방향으로 모델의 파라미터를 계속 업데이트한다.
  • arg max L(θ; y): 이 모든 학습 과정을 한 줄로 요약한 수학적 표현이다.

 

신경망의 학습 과정을 이해하는 데 가장 핵심적인 개념인 학습 목표손실 함수, 그리고 왜 **교차 엔트로피(Cross-Entropy)**를 사용하는지에 대해 설명하고 있습니다. 시험에 반드시 출제될 내용이므로 명확하게 정리해 드릴게요.


## 1. 학습 목표와 손실 함수: 목표와 측정 도구

신경망을 학습시키려면 먼저 '무엇을 해야 하는지' 알려주고, '얼마나 잘하고 있는지' 측정해야 합니다. 이 두 가지가 바로 학습 목표와 손실 함수입니다.

학습 목표 (Learning Objective)

  • 정의: 모델이 달성해야 할 추상적인 목표 또는 과제를 의미합니다.
  • 언어 모델의 학습 목표: 지도 학습(Supervised Learning) 방식을 따릅니다. 즉, 정답이 있는 데이터를 보고 학습합니다.
    • 과제: 문장에서 특정 단어를 빈칸으로 만들고, 그 빈칸에 들어갈 정답 단어를 맞추는 것이 학습 목표입니다.

손실 함수 (Loss/Objective Function)

  • 정의: 위에서 정의한 추상적인 학습 목표를, 컴퓨터가 계산할 수 있는 구체적인 수학 공식으로 바꾼 것입니다.
  • 역할: 모델의 예측이 정답과 **얼마나 다른지(오차, error)**를 계산하는 '벌점(penalty) 계산기'입니다.
    • 손실(Loss) 값이 크면 👉 "너 지금 엄청나게 틀렸어!"
    • 손실(Loss) 값이 작으면 👉 "아주 잘하고 있구나!"
  • 궁극적 목표: 모델을 학습시킨다는 것은 결국 이 손실 함수의 값을 최소(minimize)로 만드는 최적의 파라미터를 찾아가는 과정입니다.

## 2. 왜 '맞으면 0, 틀리면 1'은 최악의 손실 함수인가?

가장 단순하게 "정답을 맞추면 벌점 0, 오답이면 벌점 1"이라고 손실 함수를 정의할 수도 있습니다. 하지만 이는 신경망 학습에 사용할 수 없는, 최악의 방법입니다.

  • 문제점: 미분이 불가능하다 (Non-differentiable)
    • 신경망은 **경사 하강법(Gradient Descent)**을 통해 학습합니다. 경사 하강법은 손실 함수를 미분해서 얻은 '기울기(gradient)'를 보고, 손실이 낮아지는 방향으로 파라미터를 조금씩 수정하는 방식입니다.
  • 직관적 비유:
    • 여러분이 안개를 낀 산 정상(손실=0)을 찾아가는 상황이라고 상상해 보세요.
    • 좋은 손실 함수 (미분 가능): 부드러운 언덕길과 같습니다. 발바닥으로 땅의 기울기를 느끼면 어느 쪽이 내리막길인지(손실이 줄어드는 방향인지) 항상 알 수 있습니다.
    • 나쁜 0/1 손실 함수 (미분 불가능): 평평한 절벽 위와 같습니다. 발밑은 항상 평평해서(기울기=0) 어느 방향으로 가야 절벽 아래의 목표 지점(정상)에 가까워지는지 전혀 알 수 없습니다. 방향을 모르니 학습이 진행되지 않습니다.

## 3. 정답은 교차 엔트로피 (Cross-Entropy)

이러한 문제를 해결하기 위해, 최대 우도 추정(MLE) 원리를 기반으로 한 **교차 엔트로피(Cross-Entropy)**를 손실 함수로 사용합니다.

  • 정의: 두 확률 분포 사이의 차이(거리)를 측정하는 방법입니다.
  • 언어 모델에서의 두 확률 분포:
    1. 실제 정답 분포: 정답 단어만 확률이 1이고 나머지는 모두 0인 분포입니다. (e.g., {mat: 1, the: 0, a: 0, ...})
    2. 모델의 예측 분포: 모델이 Softmax 함수를 통해 출력한, 각 단어에 대한 예측 확률 분포입니다. (e.g., {mat: 0.2, the: 0.6, a: 0.1, ...})
  • 작동 방식:
    • 모델의 예측이 정답과 비슷할수록 (정답 단어에 높은 확률을 부여할수록) 교차 엔트로피 값은 낮아집니다.
    • 모델의 예측이 정답과 다를수록 (정답 단어에 낮은 확률을 부여할수록) 교차 엔트로피 값은 매우 높아집니다.
  • 가장 중요한 장점: 교차 엔트로피 함수는 매끄럽고 미분이 가능합니다. 따라서 모델이 얼마나 틀렸는지 뿐만 아니라, 어느 방향으로 파라미터를 수정해야 더 잘할 수 있는지에 대한 명확한 신호(기울기)를 제공합니다.
  • MLE와의 관계: 수학적으로 교차 엔트로피 손실을 최소화하는 것로그 우도(Log-Likelihood)를 최대화하는 것과 같습니다. 즉, 교차 엔트로피는 MLE 원칙을 신경망에서 구현하는 표준적인 방법입니다.

## 🦉 시험 대비 최종 요약

  • 학습 목표 vs. 손실 함수: 학습 목표는 **'무엇을 할지'**에 대한 추상적 정의, 손실 함수는 **'얼마나 틀렸는지'**를 계산하는 구체적인 수학 공식입니다.
  • 최악의 손실 함수: '맞으면 0, 틀리면 1' 같은 방식은 미분이 불가능하여 경사 하강법에 사용할 수 없습니다.
  • 최고의 손실 함수: 교차 엔트로피(Cross-Entropy). 두 확률 분포(정답, 예측)의 차이를 측정하며, 미분이 가능하여 신경망 학습에 필수적입니다.
  • 핵심 관계: 교차 엔트로피 손실(Loss)을 최소화하는 것은 최대 우도 추정(MLE) 원리를 따르는 것과 수학적으로 동일합니다.

신경망 언어 모델의 학습 원리인 **교차 엔트로피(Cross-Entropy)**와 그 시초가 된 **NNLM(Neural Network Language Model)**을 다루고 있습니다. 시험에 나올 핵심 개념들을 완벽하게 정리해 드릴게요.


## 1. MLE와 교차 엔트로피의 관계: 동전의 양면

지난 시간에 배운 최대 우도 추정(MLE)과 손실 함수(Loss function)는 사실상 같은 목표를 다른 관점에서 표현한 것입니다.

  • MLE의 목표: 모델이 학습 데이터를 얼마나 잘 설명하는지에 대한 '우도(Likelihood)'를 **최대화(Maximize)**하는 것.
  • 손실 함수의 목표: 모델의 예측이 얼마나 틀렸는지를 나타내는 '손실(Loss)'을 **최소화(Minimize)**하는 것.

이 둘을 연결하는 방법은 간단합니다. 우도 함수에 **로그(log)**를 씌우고 **음수(-)**를 붙이면 손실 함수가 됩니다.

손실(Loss) = - log(우도(Likelihood))

로그를 씌우면 곱셈이 덧셈으로 바뀌어 계산이 편리해지고, 음수를 붙여 '최대화' 문제를 '최소화' 문제로 바꿀 수 있습니다. 이 손실 함수가 바로 **교차 엔트로피(Cross-Entropy)**입니다.

🔑 핵심: 교차 엔트로피 손실을 최소화하는 것은 수학적으로 **우도를 최대화하는 것(MLE)**과 완벽하게 동일한 목표를 가집니다.


## 2. 교차 엔트로피(Cross-Entropy) 수식 완전 분해

  • 정의: **실제 분포(P)와 모델의 예측 분포(Q) 간의 차이(거리)**를 측정하는 지표입니다.
  • 수식:
    • P(x): 실제 정답 분포. (원-핫 벡터: 정답 단어만 1, 나머진 0)
    • Q(x): 모델의 예측 확률 분포. (Softmax 출력값)
  • 🌟 수식의 단순화 (이것이 핵심입니다!) P(x)는 정답 단어의 위치에서만 1이고 나머지 모든 위치에서는 0입니다. 따라서 복잡해 보이는 합산 기호(Σ)는 사실상 정답 단어 하나에 대해서만 계산됩니다.결론: 교차 엔트로피 손실은 결국 모델이 '정답 단어'에 부여한 확률값에 마이너스 로그를 취한 것입니다.
    • 모델이 정답을 잘 맞춰서 Q(정답 단어)가 1에 가까워지면 → log(1)은 0이므로, 손실은 0에 가까워집니다. (잘했어!)
    • 모델이 정답을 못 맞춰서 Q(정답 단어)가 0에 가까워지면 → log(0)은 음의 무한대에 가까워지므로, 손실은 매우 커집니다. (똑바로 해!)
  • 소프트맥스(Softmax): 신경망의 마지막 출력값을 0~1 사이의 확률값으로 변환하고, 모든 확률의 총합이 1이 되도록 만들어주는 함수입니다. 교차 엔트로피를 사용하기 위해 필수적입니다.

## 3. 최초의 신경망 언어 모델 (NNLM)

2003년 요슈아 벤지오(Yoshua Bengio) 교수가 발표한 NNLM은 현대 신경망 언어 모델의 시초가 된 기념비적인 모델입니다.

  • 핵심 아이디어 1: 신경망으로 n-gram 문제를 풀다
    • 과제: n-gram 모델처럼, n-1개의 이전 단어들이 주어졌을 때 n번째 단어를 예측합니다.
    • 차이점: 확률을 카운트로 계산하는 대신, 신경망을 학습시켜 확률을 예측합니다.
  • 핵심 아이디어 2: 단어 임베딩(Word Embedding)의 발명 🚀
    • n-gram 모델의 가장 큰 한계는 단어의 '의미'를 모른다는 것이었습니다.
    • NNLM은 이를 해결하기 위해, 희소한 표현인 **원-핫 인코딩(one-hot encoding)**을 신경망 학습을 통해 의미를 함축한 밀집된(dense) 벡터 표현으로 변환했습니다. 이것이 바로 **'단어 임베딩'**입니다.
    • 이 밀집 벡터 공간에서는 의미가 비슷한 단어들(e.g., '고양이', '강아지')이 서로 가까운 위치에 놓이게 되어, 모델이 단어 간의 의미적 유사성을 학습할 수 있게 되었습니다.
  • NNLM 구조:
    1. 입력층: 이전 n-1개 단어의 인덱스.
    2. 투사층(Projection Layer): 각 단어 인덱스를 단어 임베딩 벡터로 변환합니다. (거대한 조회 테이블(Lookup Table) C에서 해당 단어의 벡터를 꺼내옴)
    3. 은닉층(Hidden Layer): 변환된 임베딩 벡터들을 하나로 연결(concatenate)하여 신경망 연산을 수행합니다.
    4. 출력층(Output Layer): Softmax 함수를 통해 다음 단어에 대한 확률 분포를 출력합니다.

## 🦉 시험 대비 최종 요약

  • MLE와 교차 엔트로피: 교차 엔트로피 손실을 최소화하는 것은 (로그) 우도를 최대화하는 것과 수학적으로 같다.
  • 교차 엔트로피의 실제 의미: -log(모델이 정답 단어에 부여한 확률).
  • NNLM의 두 가지 혁신:
    1. 신경망을 언어 모델링에 최초로 도입.
    2. 단어 임베딩 개념을 발명하여, n-gram의 '의미 이해 불가' 문제를 해결.
  • NNLM 구조: 단어 인덱스 입력 → 임베딩 룩업 → 은닉층 연산 → Softmax 출력.
반응형
반응형

## 1. n-gram이란 무엇인가? (What is an n-gram?)

n-gram은 아주 간단한 개념입니다.

  • 정의: n개의 연속된 단어 묶음
  • 목적: 문장 전체를 한 번에 다루기 어려우니, 확률 계산을 위해 문장을 n개 단위로 잘라서 분석하겠다는 의미입니다.
  • 슬라이드 예시 분석: "오늘 학교에 왔다"
    • Unigram (1-gram): 한 단어씩 묶은 것.
      • "오늘", "학교에", "왔다"
    • Bigram (2-gram): 두 단어씩 묶은 것.
      • "오늘 학교에", "학교에 왔다"
    • Trigram (3-gram): 세 단어씩 묶은 것.
      • "오늘 학교에 왔다"

이처럼 n-gram은 문장을 분석하기 위한 기본 단위를 정의하는 방법입니다.

 

n-gram에서 n을 길게 할수록 희소성 문제는 훨씬 더 심각해집니다. 좋은 질문을 주셨는데, 많은 분들이 헷갈려 하는 부분이라 비유를 통해 명확하게 설명해 드릴게요.

핵심 원리는 **"n이 길어질수록 가능한 조합의 수가 기하급수적으로 늘어나고, 특정 조합이 내가 가진 한정된 데이터에 존재할 확률은 급격히 낮아지기 때문"**입니다.


## 도서관 비유로 이해하기 🧐

내가 가진 학습 데이터를 '도서관에 있는 모든 책'이라고 상상해 봅시다.

  • n=1 (Unigram) 찾기
    • 도서관에서 "the"라는 단어를 찾는 것과 같습니다.
    • 결과: 너무나도 쉽게, 수백만 번 찾을 수 있습니다. 희소성 문제가 전혀 없습니다.
  • n=2 (Bigram) 찾기
    • 도서관에서 "the house"라는 구절을 찾는 것과 같습니다.
    • 결과: 이것도 매우 흔해서, 수만 번은 찾을 수 있습니다. 희소성 문제가 거의 없습니다.
  • n=5 (5-gram) 찾기
    • 도서관에서 "the house is on fire"라는 구절을 찾는 것과 같습니다.
    • 결과: 이제부터 찾기 어려워집니다. 소설책 몇 권에서나 간신히 찾을 수 있을 겁니다. 카운트가 급격히 줄어 희소성이 보이기 시작합니다.
  • n=10 (10-gram) 찾기
    • 도서관에서 "the house is on fire, said the boy"라는 구절을 찾는 것과 같습니다.
    • 결과: 이 문장은 문법적으로 완벽하지만, 도서관 전체를 다 뒤져도 정확히 이 순서로 된 구절은 단 한 번도 등장하지 않을 가능성이 매우 높습니다. 이것이 바로 희소성 문제입니다.

## 수학적 관점 🔢

사용자님의 생각 "n을 길게 뽑으면 나올 가능성이 더 높아지는 거 아닌가?"는 **'문맥을 더 많이 알아서 예측이 더 정확해진다'**는 이론적인 장점만 보신 것입니다. 하지만 통계 기반 n-gram 모델은 '의미'를 이해하는 것이 아니라, **'똑같은 것을 본 적이 있는가'**를 카운트할 뿐입니다.

  • 단어 종류(Vocabulary)가 10,000개라고 가정해 봅시다.
    • Bigram (n=2)의 경우의 수: 10,000 × 10,000 = 1억 개
    • Trigram (n=3)의 경우의 수: 10,000 × 10,000 × 10,000 = 1조 개
    • 5-gram (n=5)의 경우의 수: 10,000의 5제곱 = 100,000,000,000,000,000,000개 (100경)

아무리 구글이 가진 방대한 데이터를 쓴다고 해도, 저 천문학적인 경우의 수를 모두 포함할 수는 없습니다. 따라서 n이 길어질수록, 우리가 마주칠 대부분의 문장은 학습 데이터에 한 번도 등장하지 않은 조합일 수밖에 없습니다.


## 결론

  • n을 길게 한다는 것은 더 구체적인(specific) 문맥을 보겠다는 의미입니다.
  • 문맥이 구체적일수록 이론적인 예측 정확도는 올라가지만, 그 구체적인 문맥을 학습 데이터에서 본 적이 있을 확률(카운트)은 0에 수렴하게 됩니다.
  • 이 때문에 n-gram 모델은 정확성(높은 n)과 희소성(낮은 n) 사이의 트레이드오프(trade-off) 관계를 가지며, 스무딩이나 백오프 같은 기법으로 이 문제를 '완화'할 뿐 '해결'하지는 못합니다.

이것이 바로 단어의 의미 자체를 학습하는 신경망 언어 모델이 등장하게 된 근본적인 이유입니다.


## 2. 마르코프 가정 (The Markov Assumption) - 현실과의 타협

지난 시간에 통계 기반 모델은 희소성 문제(Sparsity Problem) 때문에 긴 문장의 확률을 계산하기 어렵다고 배웠습니다. 마르코프 가정은 이 문제를 해결하기 위한 매우 실용적인 아이디어입니다.

  • 문제 인식: "나는 오늘 아침에 밥을 먹고 파란색 버스를 타고 학교에 왔다"에서 '왔다'를 예측하기 위해 문장 전체를 고려하는 것은 불가능하다. (count(나는 오늘...학교에))를 찾는 것은 거의 불가능)
  • 핵심 아이디어 (가정):즉, '왔다'라는 단어는 '나는', '아침에' 같은 먼 단어보다는, 바로 앞의 '학교에'라는 단어의 영향을 훨씬 더 많이 받는다는 현실적인 가정을 하는 것입니다.
  • "어떤 단어의 등장 확률은 먼 과거의 모든 단어가 아니라, 바로 앞의 몇 개 단어에만 영향을 받을 것이다."
  • 수식으로 이해하기:
    • ≈ (근사): 왼쪽의 '정확한 확률' 계산이 불가능하니, 오른쪽의 '단축된 확률'로 **대략 비슷할 것이라고 가정(근사)**하겠다는 의미입니다.
    • w_1, ..., w_{t-1}: 단어의 전체 역사 (full history)
    • w_{t-n+1}, ..., w_{t-1}: 예측할 단어(w_t) 바로 앞의 n-1개 단어 (recent history)

## 3. n-gram 모델과 마르코프 가정의 결합

이제 이 두 개념이 어떻게 함께 작동하는지 보겠습니다. n-gram 모델은 마르코프 가정을 실제로 구현하는 방법입니다.

  • Bigram (n=2) 모델의 경우:
    • 가정: 다음 단어는 바로 앞 1개(n-1)의 단어에만 영향을 받는다.
    • 적용: P(왔다 | 오늘 학교에) 라는 어려운 계산 대신, 마르코프 가정을 적용하여 **P(왔다 | 학교에)** 라는 훨씬 간단한 문제로 바꿉니다.
    • 계산: 이제 우리는 count("학교에 왔다") / count("학교에") 라는 계산 가능한 확률을 얻게 됩니다.
  • Trigram (n=3) 모델의 경우:
    • 가정: 다음 단어는 바로 앞 2개(n-1)의 단어에만 영향을 받는다.
    • 적용: P(왔다 | 오늘 학교에)는 **P(왔다 | 오늘 학교에)**로 계산합니다. (이 문장은 짧아서 전체가 되지만, 더 긴 문장에서도 바로 앞 두 단어만 봅니다.)
    • 계산: count("오늘 학교에 왔다") / count("오늘 학교에") 로 확률을 계산합니다.

## 🦉 시험 대비 최종 요약

  • n-gram: 문장을 분석하기 위한 'n개의 연속된 단어 묶음'.
  • 마르코프 가정: 다음 단어 예측 시, 전체 문맥 대신 '바로 앞 n-1개 단어'라는 짧은 문맥만 본다는 현실적인 가정.
  • 마르코코프 가정을 쓰는 이유: 통계 기반 모델의 고질적인 희소성 문제(Sparsity Problem)를 해결하기 위해서.
  • n-gram 모델의 작동 방식:
    • Unigram (n=1): 문맥을 전혀 보지 않음. P(왔다)
    • Bigram (n=2): 바로 앞 1개 단어만 봄. P(왔다 | 학교에)
    • Trigram (n=3): 바로 앞 2개 단어만 봄. P(왔다 | 오늘 학교에)
  • n-gram의 Trade-off (장단점):
    • n이 커지면? 더 많은 문맥을 반영해 예측이 정확해지지만, 다시 희소성 문제가 발생할 가능성이 커진다.
    • n이 작아지면? 희소성 문제는 줄어들지만, 문맥을 너무 적게 반영하여 예측의 정확도가 떨어진다.

## 1. n-gram 모델의 확률 계산: 현실적인 연쇄 법칙

n-gram 모델은 이전에 배운 '연쇄 법칙(Chain Rule)'을 그대로 사용하지 않고, 마르코프 가정에 따라 현실적으로 단순화(근사)해서 사용합니다. 슬라이드의 그림은 이 과정을 완벽하게 보여줍니다.

  • 문장: "this is the house that Alice built"
  • 목표: 문장 전체의 확률 p(this is the house that Alice built) 구하기

이것을 계산하기 위해 각 단어의 확률을 곱해야 하는데, n-gram 모델별로 다음과 같이 마지막 단어 built의 확률을 다르게 계산합니다.

  1. Chain Rule (이상적인 모델):
    • p(built | this is the house that Alice)
    • 의미: 'built' 이전의 모든 단어를 문맥으로 고려합니다. 현실적으로 희소성 문제 때문에 계산이 거의 불가능합니다.
  2. Trigram (n=3) 모델:
    • p(built | that Alice)
    • 의미: 'built' 바로 앞의 2개(n-1) 단어만 문맥으로 봅니다. 훨씬 현실적인 근사치입니다.
  3. Bigram (n=2) 모델:
    • p(built | Alice)
    • 의미: 'built' 바로 앞의 1개(n-1) 단어만 문맥으로 봅니다. 더 많이 단순화되었습니다.
  4. Unigram (n=1) 모델:
    • p(built)
    • 의미: 문맥을 전혀 고려하지 않고(n-1=0), 그냥 'built'라는 단어 자체의 등장 확률만 봅니다.

핵심: n-gram 모델은 긴 문맥을 n-1개의 짧은 문맥으로 잘라내어 희소성 문제를 해결하고 확률 계산을 가능하게 만드는 것입니다.


## 2. n값 선택의 중요성: Trade-off 관계

n을 얼마로 설정할지는 n-gram 모델의 성능을 결정하는 매우 중요한 문제입니다. n의 크기에 따라 명확한 장단점이 존재하며, 이를 **Trade-off(상충 관계)**라고 합니다.

n이 작은 경우 (e.g., Bigram, n=2)

  • ✅ 장점 (Advantages):
    • 희소성 문제 덜함: 문맥으로 보는 단어가 적기 때문에(e.g., "Alice"), 해당 문맥이 데이터에 존재할 확률이 높습니다. 즉, 웬만한 문장은 확률 계산이 가능합니다.
    • 적은 데이터로 학습 가능: 카운트할 n-gram의 종류가 적으므로, 데이터가 많지 않아도 괜찮습니다.
    • 계산량이 적음: 모델이 단순해서 계산이 빠릅니다.
  • 😥 단점 (Disadvantages):
    • 문맥 정보 활용 어려움: 바로 앞 한두 단어만 보기 때문에 문장의 전체적인 의미나 복잡한 구조를 파악하지 못합니다.
    • 긴 의존성 표현 불가능: 예를 들어, "I live in a small village in the mountains and speak fluent... (나는 산속 작은 마을에 살고 유창한 ...를 구사한다)" 에서 다음에 올 'Korean'을 예측하려면 'I'라는 주어를 봐야 하지만, Bigram 모델은 'fluent'만 보기 때문에 정확한 예측이 어렵습니다.

n이 큰 경우 (e.g., 4-gram, n=4)

  • ✅ 장점 (Advantages):
    • 더 많은 문맥 정보 반영 → 예측 정확도 증가: 더 긴 앞부분의 내용을 참고하므로, 다음에 올 단어를 훨씬 더 정확하게 예측할 수 있습니다. 문장의 자연스러움이 향상됩니다.
  • 😥 단점 (Disadvantages):
    • 희소성 문제 심각: 문맥이 길어지면서(e.g., "house that Alice"), 해당 문맥이 학습 데이터에 한 번도 등장하지 않았을 확률이 기하급수적으로 높아집니다.
    • 계산량이 많음: 고려해야 할 n-gram의 종류가 폭발적으로 증가하여 많은 메모리와 계산 시간이 필요합니다.
    • 아주 긴 문맥은 여전히 포함 불가: n을 5나 6으로 늘려도, 결국 몇십 개 단어에 걸친 긴 의존성은 여전히 파악할 수 없습니다.

## 🦉 시험 대비 최종 요약

  • n-gram 모델의 계산: 이상적인 연쇄 법칙을 '바로 앞 n-1개 단어만 보는' 현실적인 방식으로 근사하여 계산한다.
  • n 선택의 Trade-off: n-gram 모델의 성능은 정확성(높은 n)과 일반화/안정성(낮은 n) 사이의 줄다리기와 같다.
  • n이 작을 때 (Small n): 희소성 문제 ↓, 정확도 ↓ (문맥을 거의 못 봄)
  • n이 클 때 (Large n): 정확도 ↑, 희소성 문제 ↑ (처음 보는 문장에 취약)
  • 결론: 적절한 n값을 선택하는 것이 중요하며, 이 근본적인 한계 때문에 현대에는 신경망 기반 언어 모델이 주류가 되었다.

이 슬라이드들은 n-gram 모델의 치명적인 약점인 **희소성 문제(Sparsity Problem)**와 이를 해결하기 위한 스무딩(Smoothing) 기법들을 설명하고 있습니다. 시험에 단골로 출제되는 주제이니, 각 기법의 원리와 차이점을 중심으로 완벽하게 설명해 드릴게요.


## 1. 희소성 문제 (The Sparsity Problem): 왜 확률이 0이 되면 안되는가?

n-gram 모델은 학습 데이터에 등장한 횟수(카운트)를 기반으로 확률을 계산합니다. 여기서 심각한 문제가 발생합니다.

  • 문제점: 학습 데이터에 단 한 번도 나오지 않은 n-gram은 확률이 0이 됩니다.
    • 예시: 슬라이드처럼 단어 집합(Vocabulary)이 {a, b, c}일 때, 가능한 bigram은 "aa, ab, ac, ba, bb, bc, ca, cb, cc" 총 9가지입니다.
    • 하지만 우리가 가진 데이터(Corpus)에 "ab", "bc", "ab", "ac"만 있다면, "aa"나 "bb" 같은 bigram은 한 번도 등장하지 않았으므로 count(aa)는 0이 됩니다.
  • 치명적인 결과: 문장 전체의 확률은 연쇄 법칙에 따라 각 n-gram의 확률을 곱해서 계산됩니다. 이때, 단 하나의 n-gram이라도 확률이 0이면 문장 전체의 확률도 0이 되어버립니다.
    • 이는 문법적으로 완벽하고 의미가 통하는 문장일지라도, 학습 데이터에서 본 적 없다는 이유만으로 "절대 나타날 수 없는 문장"이라고 잘못 판단하는 결과를 낳습니다.

## 2. 스무딩 (Smoothing): 없는 것에 확률을 나눠주는 기술

스무딩은 희소성 문제를 해결하기 위한 모든 기법을 통칭하는 말입니다.

  • 핵심 아이디어:
  • "학습 데이터에서 관측된 n-gram들의 확률을 조금씩 깎아서, 관측되지 않은 (unseen) n-gram들에게 아주 작은 확률이라도 나눠주자!"
  • 목적:
    1. 관측되지 않은 n-gram의 확률이 0이 되는 것을 방지합니다.
    2. 전체적인 확률 분포를 더 현실적이고 부드럽게(Smooth) 보정합니다.

이제 대표적인 스무딩 기법 두 가지를 살펴보겠습니다.


## 3. 스무딩 기법 1: Add-one (Laplace) Smoothing

가장 간단하고 직관적인 스무딩 방법입니다.

  • 원리: "모든 종류의 n-gram 카운트에 묻지도 따지지도 않고 그냥 1을 더하자!"
  • 적용:
    • count(aa)는 원래 0이었지만, Add-one 스무딩을 적용하면 0 + 1 = 1이 됩니다.
    • count(ab)는 원래 2였지만, 2 + 1 = 3이 됩니다.
  • 확률 계산: 분자에 1을 더했으므로, 전체 확률의 합이 1이 되도록 분모도 보정해주어야 합니다. 분모에는 **전체 단어의 개수(V, Vocabulary size)**를 더해줍니다.
    • 수식:
  • 장점: 구현이 매우 간단하고, 절대 0이 되는 확률을 만들지 않습니다.
  • 단점: 관측되지 않은 수많은 n-gram에 너무 많은 확률을 낭비합니다. 특히 단어 수가 많아질수록(V가 커질수록) 기존에 관측된 n-gram들의 확률을 너무 많이 깎아내려 분포를 심하게 왜곡할 수 있습니다.

## 4. 스무딩 기법 2: Good-Turing Smoothing

Add-one보다 훨씬 정교하고 성능이 좋은 방법입니다.

  • 핵심 아이디어:특히, **"한 번 등장한(빈도=1) n-gram들의 지분을 조금 떼어다가, 한 번도 등장하지 않은(빈도=0) n-gram들에게 나눠주자"**는 개념이 핵심입니다.
  • "빈도수가 c+1번인 n-gram들의 정보를 활용해서, 빈도수가 c번인 n-gram들의 확률을 재평가하자."
  • 카운트 보정 수식:
    • c: 원래 카운트 (e.g., count(aa) = 0)
    • N_c: 카운트가 정확히 c번인 n-gram의 종류(type) 수
    • c*: 보정된 새로운 카운트
  • 슬라이드 예시로 계산하기:
    1. 목표: 한 번도 안 나온 "aa"의 보정된 카운트 c* 구하기 (즉, c=0일 때)
    2. Corpus: {"ab", "bc", "ab", "ac"}
    3. N_c 계산:
      • N_1 (카운트가 1인 bigram 종류 수): "bc", "ac" 두 종류 → N_1 = 2
      • N_0 (카운트가 0인 bigram 종류 수): 전체 9개 중 3개("ab", "bc", "ac")를 제외한 여섯 종류 → N_0 = 6
    4. c* 계산 (c=0 대입):
      • c* = (0 + 1) * (N_1 / N_0) = 1 * (2 / 6) = 1/3
    5. 결과: "aa", "bb" 등 한 번도 관측되지 않은 모든 bigram의 보정된 카운트는 1/3이 됩니다. 0이 아닌 값을 가지게 되었으므로 희소성 문제가 해결됩니다.

## 🦉 시험 대비 최종 요약

  • 희소성 문제: 학습 데이터에 없는 n-gram의 확률이 0이 되어, 문장 전체 확률이 0이 되는 문제.
  • 스무딩: 이 문제를 해결하기 위해, 본 적 없는 n-gram에 확률을 빌려주는 모든 기법.
  • Add-one 스무딩: 가장 단순한 방법. 모든 카운트에 +1을 하고 분모에 +V를 한다. 간단하지만 분포 왜곡이 심할 수 있다.
  • Good-Turing 스무딩: 정교한 방법. **'c+1번 나온 종류의 수'**를 이용해 **'c번 나온 것들'**의 카운트를 재조정한다. 일반적으로 Add-one보다 성능이 우수하다.

 

## 1. n-gram 언어 모델의 4가지 명백한 한계

n-gram 모델은 통계적 접근법의 정수이지만, 다음과 같은 4가지 명백한 한계점을 가지고 있습니다.

  1. 짧은 문맥 한계 (Short Context Limit)
    • n-gram은 마르코프 가정에 따라 바로 앞의 n-1개 단어만 보기 때문에, 문장 전체에 걸친 긴 의존 관계(Long-distance dependencies)를 파악할 수 없습니다.
    • 예시: "저 멀리 산기슭에 있는 예쁜 집에 사는 그 소녀는 행복하다." 라는 문장에서, '행복하다'의 주어는 '소녀'입니다. 하지만 Trigram 모델(n=3)은 '사는 그' 라는 단어만 보고 '행복하다'를 예측해야 하므로, 제대로 된 예측이 거의 불가능합니다.
  2. 희소성 문제 (Sparsity Problem)
    • 이전에 배운 것처럼, n이 조금만 커져도 학습 데이터에 없는 n-gram이 나타날 확률이 매우 높습니다. 스무딩이나 백오프 같은 기법으로 완화할 수는 있지만, 근본적으로 해결되지는 않는 고질적인 문제입니다.
  3. 의미 파악의 어려움 (No Semantic Understanding) 😭
    • n-gram 모델은 단어를 그저 기호(symbol)로 취급할 뿐, 단어의 의미나 단어 간의 유사성을 전혀 이해하지 못합니다.
    • 예시: 모델이 "고양이가 귀엽다"라는 문장을 학습했더라도, "야옹이가 귀엽다"라는 문장은 완전히 새로운 n-gram으로 취급합니다. '고양이'와 '야옹이'가 의미적으로 매우 유사하다는 사실을 알지 못합니다. 이 때문에 새로운 표현에 매우 취약합니다.
  4. 높은 메모리/계산량 (High Memory/Computation)
    • 모델은 학습 데이터에 등장한 모든 n-gram의 카운트를 사전처럼 저장해야 합니다. 데이터가 커지거나 n값이 커지면 이 사전의 크기가 기하급수적으로 커져 엄청난 메모리 공간을 차지합니다.

## 2. 희소성 문제 해결을 위한 고급 기법들

이러한 한계, 특히 희소성 문제를 해결하기 위해 다음과 같은 더 정교한 기법들이 개발되었습니다.

1) Kneser-Ney Smoothing: '맥락 다양성'의 발견

가장 성능이 좋다고 알려진 표준적인 스무딩 기법입니다.

  • 핵심 아이디어: 단순히 얼마나 자주 등장했는지(카운트)만 보지 말고, 얼마나 다양한 문맥에서 등장했는지(Context Diversity)를 함께 고려하자!
  • 직관적 예시:
    • "Francisco": 이 단어는 거의 항상 "San" 뒤에만 나타납니다. 즉, 등장하는 문맥이 매우 한정적입니다.
    • "book": 이 단어는 "read a", "interesting", "buy the" 등 매우 다양한 단어 뒤에 나타날 수 있습니다.
  • 결론: Kneser-Ney 스무딩은 "book"처럼 다양한 문맥에서 등장하는 단어가, "Francisco"처럼 특정 문맥에만 갇혀있는 단어보다 새로운 문맥에서도 등장할 확률이 더 높다고 보고 확률을 보정합니다. 이로써 훨씬 더 현실적인 확률 분포를 만들어냅니다.

2) 백오프 (Backoff): '플랜 B' 전략

스무딩과는 약간 다른 접근법입니다.

  • 핵심 아이디어: 일단 가장 정보가 많은 긴 n-gram(e.g., Trigram)으로 확률을 계산해보고, 만약 카운트가 0이면 더 짧은 n-gram(e.g., Bigram)으로 물러나서(back off) 확률을 추정하자.
  • 작동 방식 (폭포수 모델):
    1. Try Trigram: P(C | A, B)를 계산 시도.
    2. If Fails (count=0): Back off to Bigram. P(C | B)를 대신 사용.
    3. If Fails (count=0): Back off to Unigram. P(C)를 대신 사용.
  • 특징: 한 번에 하나의 모델만 사용합니다. 긴 n-gram이 실패했을 때를 대비한 '비상 계획'과 같습니다.

3) 내삽 (Interpolation): '전문가 믹스' 전략

백오프와 비슷하지만, 더 세련된 방식입니다.

  • 핵심 아이디어: 긴 n-gram과 짧은 n-gram을 모두 사용하되, 각각의 예측 결과를 가중치를 두어 섞어주자(blend).
  • 작동 방식 (가중 평균):
    • 최종 확률 = λ₁ * P(Trigram) + λ₂ * P(Bigram) + λ₃ * P(Unigram)
    • λ (람다)는 각 모델의 예측을 얼마나 신뢰할지를 나타내는 가중치이며, λ₁ + λ₂ + λ₃ = 1 입니다.
  • 특징: 특정 n-gram 정보가 없더라도 다른 n-gram들의 정보를 모두 활용하므로, 백오프보다 더 안정적이고 부드러운 확률을 추정할 수 있습니다.

## 🦉 시험 대비 최종 요약

  • n-gram의 4대 한계: 짧은 문맥, 희소성, 의미 이해 불가, 높은 메모리 사용량. 이 단점들 때문에 신경망 모델이 필요해졌습니다.
  • Kneser-Ney Smoothing: 가장 정교한 스무딩. 단순 카운트가 아닌 **'맥락 다양성'**을 고려합니다.
  • Backoff vs. Interpolation:
    • 백오프: 하나만 선택. 긴 n-gram이 실패하면 짧은 n-gram으로 물러나는 방식.
    • 내삽(Interpolation): 모두 섞어서 사용. 긴 n-gram과 짧은 n-gram의 예측 결과를 가중 평균 내는 방식.
반응형
반응형

## 1. 언어 모델(Language Model)의 핵심 개념

슬라이드 아래쪽의 '개념' 섹션부터 살펴보겠습니다. 언어 모델이 무엇인지에 대한 정의입니다.

  1. "자연어 입력 -> '통계학적'으로 가장 적절한 출력값을 찾아내는 모델"
    • 설명: 언어 모델은 사람이 쓰는 말(자연어)을 컴퓨터가 이해하고 처리할 수 있도록 만든 모델입니다. 이때, 정답이 하나로 정해진 규칙 기반이 아니라, 방대한 텍스트 데이터를 학습해서 통계적으로 가장 확률이 높은 단어나 문장을 찾아냅니다.
    • 예시: "저는 오늘 아침에 맛있는 사과를" 이라는 문장 다음에 올 단어를 예측할 때, 데이터상 '먹었어요'가 '달렸어요'보다 훨씬 많이 나왔기 때문에 '먹었어요'가 더 적절하다고 판단하는 식입니다.
  2. "단어 시퀀스에 '확률'을 할당하는 모델: 단어 시퀀스가 얼마나 자연스러운지 평가"
    • 설명: 언어 모델의 핵심 기능은 문장의 자연스러움을 확률로 평가하는 것입니다. 문법에 맞고 의미가 통하는 문장일수록 높은 확률값을 가집니다.
    • 예시:
      • P("나는 학교에 갑니다") -> 높은 확률 (자연스러운 문장)
      • P("학교에 나는 갑니다 나는") -> 낮은 확률 (어색한 문장)
    • 응용: 이 원리를 이용해 번역기나 챗봇이 여러 후보 문장 중 가장 자연스러운 문장을 선택하게 됩니다.
  3. "언어 모델링: 주어진 단어들로부터 아직 모르는 단어를 예측하는 작업"
    • 설명: 이것이 바로 언어 모델을 훈련시키는 가장 기본적인 작업입니다. 앞 단어들이 주어졌을 때, 빈칸에 들어갈 다음 단어를 맞추는 퀴즈를 계속 푸는 것과 같습니다.
    • 예시: "공부를 열심히 하면 시험에..." 라는 문장에서 빈칸에 '합격할' 이라는 단어를 예측하는 작업입니다.
  4. "최종 태스크 해결을 위한 네트워크 구조 및 학습목표 정의에 활용"
    • 설명: 언어 모델은 그 자체로도 쓰이지만, 다른 더 복잡한 인공지능 모델의 '기초 두뇌' 역할을 합니다. 예를 들어, 감성 분석, 챗봇, 기계 번역 같은 특정 작업을(Final Task) 해결하기 위해 미리 잘 훈련된 언어 모델(Pretrained Model)을 가져와서 약간만 추가 학습(Fine-tuning)시켜 사용하는 경우가 많습니다.

## 2. 언어 모델의 발전 과정

슬라이드 가장 아래에 있는 기술의 흐름입니다. 시험에 순서나 각 모델의 특징을 묻기 좋습니다.

  • 통계 기반: n-gram
    • 개념: 단어들의 순서를 n개씩 묶어서 그 등장 횟수를 세는 방식입니다. 예를 들어, 2-gram(bigram)은 두 단어씩, 3-gram(trigram)은 세 단어씩 묶어서 확률을 계산합니다.
    • 한계: n개의 단어만 고려하므로 문맥을 넓게 파악하지 못하고, 학습 데이터에 한 번도 등장하지 않은 단어 조합은 확률이 0이 되는 **'희소성 문제(Sparsity Problem)'**가 있습니다.
  • 인공신경망 기반: Neural LM → Seq2Seq → Attention → Pretrained Models → LLM
    • Neural LM (신경망 언어 모델): n-gram의 한계를 극복하기 위해 등장했습니다. 단어를 벡터(숫자의 배열)로 표현(임베딩)하여 단어 간의 의미적 유사성을 학습하고, 더 긴 문맥을 이해할 수 있게 되었습니다.
    • Seq2Seq (시퀀스-투-시퀀스): 문장 같은 시퀀스(Sequence)를 입력받아 번역문 같은 다른 시퀀스를 출력하는 구조입니다. 인코더와 디코더로 구성되며, 기계 번역 분야에 큰 발전을 가져왔습니다.
    • Attention (어텐션): Seq2Seq 모델의 성능을 획기적으로 개선한 메커니즘입니다. 번역할 때 문장의 특정 단어에 더 '집중(Attention)'해서 관련성 높은 정보를 활용하도록 만들어, 긴 문장의 번역 품질을 크게 높였습니다. 현대 언어 모델의 가장 핵심적인 기술 중 하나입니다.
    • Pretrained Models (사전학습 모델): 거대한 데이터로 미리 훈련된 범용 언어 모델입니다. (예: BERT, GPT) 이 모델들을 특정 작업에 맞게 약간만 추가 학습(미세 조정, Fine-tuning)하면 높은 성능을 낼 수 있어 효율적입니다.
    • LLM (거대 언어 모델): 사전학습 모델의 규모(파라미터, 데이터)를 엄청나게 키운 모델들입니다. (예: GPT-3, GPT-4)

## 3. 언어 모델 예시: ELMo

슬라이드 위쪽의 ELMo 모델에 대한 설명입니다.

  • ELMo (Embeddings from Language Models)
    • 핵심 특징: '깊은 문맥을 반영한 단어 표현' (Deep Contextualized Word Representations)
    • 설명: ELMo 이전의 Word2Vec 같은 모델들은 'bank'라는 단어가 '강둑'이든 '은행'이든 항상 같은 벡터값을 가졌습니다. 하지만 ELMo는 문장 전체의 문맥을 파악해서 같은 단어라도 문맥에 따라 다른 벡터값을 부여합니다. 이것이 바로 '문맥화된 임베딩(Contextualized Embedding)'이며, 언어 모델 역사에서 매우 중요한 혁신입니다.
    • 작동 방식:
      1. 양방향 LSTM (bi-LSTM): 문장을 처음부터 끝으로 (the → mat) 한 번, 그리고 끝에서 처음으로 (mat → the) 또 한 번, 총 두 방향으로 읽습니다.
      2. 결합: 이 두 방향의 정보를 모두 합쳐서 각 단어의 의미를 최종적으로 결정합니다. 덕분에 단어의 앞뒤 문맥을 모두 풍부하게 이해할 수 있게 됩니다.
      3. 수식 log p(word | all words before word): 이것은 정방향 언어 모델의 목표를 나타냅니다. 즉, '이전 단어들이 주어졌을 때 현재 단어가 나타날 로그 확률'을 최대화하며 학습한다는 의미입니다. ELMo는 정방향과 역방향 모델을 함께 사용합니다.

## 🦉 시험 대비 최종 요약 (핵심 암기 포인트)

  • 언어 모델이란? 문장의 확률을 계산하고, 다음 단어를 예측하는 통계적 모델.
  • 언어 모델의 역할: 문장이 얼마나 자연스러운지 확률로 평가한다.
  • n-gram vs. 신경망: n-gram은 단어 빈도수 기반, 신경망은 단어의 의미와 문맥을 벡터로 학습.
  • ELMo의 가장 큰 기여: **'문맥을 이해하는' 단어 벡터(임베딩)**를 만들었다. (양방향 학습 덕분)
  • 현대 언어 모델의 핵심: Attention 메커니즘과 사전학습(Pre-training) 패러다임.

언어 모델의 두 가지 핵심 역할과, 그 역할이 실제로 어떻게 응용되는지에 대한 예시들입니다.


## 1. 언어 모델의 두 가지 핵심 역할 (Two Core Roles of a Language Model)

언어 모델을 훈련하고 사용하는 방식은 크게 두 가지로 나눌 수 있습니다. 이 둘의 차이점은 시험에 나올 확률이 매우 높으니 꼭 구분해서 알아두세요.

1) 다음 단어 예측 (Next Word Prediction)

  • 개념: 문장의 앞부분이 주어졌을 때, 바로 다음에 올 단어를 맞추는 방식입니다. 마치 문장 이어가기 퀴즈와 같습니다.
  • 예시: "오늘 점심 메뉴는..." 이라는 문장을 주고, 다음에 올 단어인 "김치찌개"를 예측하도록 학습시킵니다.
  • 대표 모델: GPT 계열의 모델들이 이 방식을 사용합니다. 그래서 글을 생성하고, 질문에 답하고, 대화를 이어가는 등의 작업(생성 모델)에 강점을 보입니다.
  • 슬라이드 표현: "이전 단어들이 주어졌을 때 다음 단어 예측"

2) 마스크된 단어 예측 (Masked Language Modeling, MLM)

  • 개념: 문장 중간에 무작위로 구멍(Mask)을 뚫어놓고, 그 빈칸에 들어갈 원래 단어를 맞추는 방식입니다. 영어 빈칸 채우기 문제와 똑같습니다.
  • 예시: "오늘 점심 메뉴는 [MASK]입니다." 라는 문장을 주고, [MASK] 토큰에 "김치찌개"가 들어가야 함을 맞추도록 학습시킵니다.
  • 핵심 특징: 다음 단어만 보는 것이 아니라, 빈칸의 앞뒤 문맥을 모두 동시에 고려해서 단어를 예측합니다. 따라서 문장의 전체적인 의미를 이해하는 능력이 뛰어납니다.
  • 대표 모델: BERT 계열의 모델들이 이 방식을 사용하며, 문장의 의미를 파악해 분류하거나 분석하는 작업에 특히 강력합니다.
  • 슬라이드 표현: "가운데 빈 칸에 해당하는 단어 예측"

## 2. 확률 할당을 통한 언어 모델의 응용 (Applications of Language Models via Probability Assignment)

이제 언어 모델이 '가장 자연스러운 문장에 높은 확률을 부여하는' 핵심 원리를 이용해 어떤 문제들을 해결하는지 살펴보겠습니다. 모든 예시의 공통점은 **"여러 후보 중, 언어 모델이 가장 자연스럽다고 판단(가장 높은 확률을 부여)하는 것을 정답으로 선택한다"**는 것입니다.

1) 기계 번역 (Machine Translation)

  • 상황: "I took the bus." 라는 문장을 번역해야 합니다. 영어 단어 'take'는 '타다', '가지고 가다', '태우다' 등 다양한 뜻을 가집니다.
  • 언어 모델의 역할: 번역기는 가능한 후보 문장들을 만듭니다.
    • 후보 1: "나는 버스를 탔다."
    • 후보 2: "나는 버스를 태웠다." (내가 운전해서 다른 사람을 태워준다는 의미)
  • 확률 비교: 언어 모델이 두 문장의 자연스러움을 평가합니다. 일반적으로 '버스를 타다'라는 표현이 '버스를 태우다'보다 훨씬 자연스럽고 흔하게 쓰입니다.
    • P(나는 버스를 탔다) > P(나는 버스를 태웠다)
  • 결과: 확률이 더 높은 "나는 버스를 탔다."가 최종 번역문으로 선택됩니다.

2) 오타 교정 (Spell Correction)

  • 상황: 사용자가 "오늘 날시가 좋다." 라고 오타를 입력했습니다.
  • 언어 모델의 역할: 오타 교정기는 '날시'와 비슷한 단어들을 후보로 올립니다.
    • 후보 1: "오늘 날시가 좋다."
    • 후보 2: "오늘 날씨가 좋다."
  • 확률 비교: 언어 모델이 두 문장의 자연스러움을 평가합니다. '날씨'는 한국어에 없는 단어이므로 문맥상 매우 어색합니다.
    • P(오늘 날가 좋다) < P(오늘 날씨가 좋다)
  • 결과: 확률이 훨씬 높은 "오늘 날씨가 좋다."를 올바른 문장으로 판단하여 오타를 수정해 줍니다.

3) 음성 인식 (Speech Recognition)

  • 상황: 주변 소음 등으로 인해 음성 인식이 불분명할 때, 발음이 비슷한 단어들 사이에서 혼동이 생깁니다. 예를 들어 "나는 메론을 먹는다" 라는 음성이 들어왔는데, 시스템은 '메론'과 '메롱'을 헷갈려 합니다.
  • 언어 모델의 역할: 인식된 소리를 바탕으로 가능한 텍스트 후보들을 만듭니다.
    • 후보 1: "나는 메론을 먹는다."
    • 후보 2: "나는 메롱을 먹는다."
  • 확률 비교: 언어 모델이 두 문장이 얼마나 말이 되는지를 평가합니다. '메론(과일)을 먹는 것'은 매우 상식적이고 자연스러운 행동입니다. 반면 '메롱(장난)을 먹는 것'은 의미가 통하지 않습니다.
    • P(나는 메론을 먹는다) > P(나는 메롱을 먹는다)
  • 결과: 의미상 확률이 높은 "나는 메론을 먹는다."가 최종 인식 결과로 선택됩니다.

4) 정보 검색 (Information Retrieval/Search)

  • 상황: 사용자가 검색창에 "비행기 예약" 이라고 입력합니다.
  • 언어 모델의 역할: 이것은 다음 단어 예측(Next Word Prediction) 역할의 직접적인 응용입니다. 언어 모델은 "비행기 예약" 다음에 사람들이 가장 많이 검색했던, 즉 이어질 확률이 가장 높은 단어들을 예측하여 추천해 줍니다.
  • 확률 비교 및 추천:
    • "비행기 예약" 다음 단어 후보: 사이트, 방법, 가격, 이벤트 ...
    • 이 중 가장 확률이 높은 단어들을 순서대로 보여주는 것이 자동 완성 기능입니다.
  • 결과: 사용자는 타이핑을 덜 하고도 원하는 검색어를 더 빠르고 정확하게 완성할 수 있습니다.

## 🦉 시험 대비 최종 요약 (Key Exam Takeaways)

  • 언어 모델의 2대 학습법:
    • GPT 계열 (생성): 다음 단어 예측 (문장 이어가기)
    • BERT 계열 (이해): 마스크된 단어 예측 (빈칸 채우기, 양방향 문맥 이해)
  • 언어 모델의 핵심 응용 원리:
    • 여러 가능한 후보(번역문, 교정 단어, 인식 결과)를 생성한다.
    • 언어 모델이 각 후보의 자연스러움을 확률로 계산한다.
    • 가장 높은 확률을 가진 후보를 최종 결과로 선택한다.
    • 이 원리는 기계 번역, 오타 교정, 음성 인식 등 다양한 분야에서 정확도를 높이는 데 결정적인 역할을 한다.

## 1. "자연스러움"의 재정의와 수학적 접근

✅ 핵심 개념 복습 및 추가

이전 슬라이드에서 언어 모델은 문장의 '자연스러움'을 평가한다고 배웠습니다. 첫 번째 슬라이드는 여기에 중요한 단서를 하나 더 추가합니다.

  • "자연스럽다"는 것은 태스크(task) 및 사람의 의도에 따라 다르게 정의된다.
    • 설명: 이 말은 '자연스러움'의 기준이 절대적이지 않다는 뜻입니다. 예를 들어,
      • 챗봇: 친구처럼 친근하고 짧은 문장이 '자연스러운' 문장입니다.
      • 논문 요약: 학술적이고 객관적인 문체가 '자연스러운' 문장입니다.
      • 법률 문서: 딱딱하고 논리적인 문체가 '자연스러운' 문장입니다.
    • 핵심: 즉, 언어 모델은 주어진 목적에 맞는 가장 적절한 문장을 찾아내도록 훈련됩니다.

✅ 자연스러움을 숫자로 바꾸기: 조건부 확률

컴퓨터는 '자연스럽다'는 추상적인 개념을 이해하지 못합니다. 그래서 이것을 **'확률(Probability)'**이라는 숫자로 바꿔서 계산합니다.

  • 조건부 확률 (Conditional Probability)로 표현 가능
    • 설명: 언어 모델의 핵심 아이디어입니다. 문장의 자연스러움은 **"이전 단어들이 주어졌을 때, 특정 단어가 다음에 등장할 확률"**을 계산함으로써 측정할 수 있습니다.
    • 예시: "나는 버스를" 이라는 단어들이 주어졌을 때, 다음에 "탔다"가 나올 확률은 높고, "날았다"가 나올 확률은 매우 낮을 것입니다. 이 확률값이 바로 그 문장의 자연스러움을 나타내는 척도(기준)가 됩니다.

## 2. 언어 모델의 핵심 수식 완전 정복 📐

이제 언어 모델이 문장 전체의 자연스러움을 어떻게 계산하는지 그 공식을 살펴보겠습니다. 여기가 가장 중요합니다!

✅ 문장 확률 P(W)와 확률의 연쇄 법칙 (Chain Rule)

우리의 목표는 문장 전체(W)가 나타날 확률, 즉 P(W)를 구하는 것입니다.

  • 정의:
    • 하나의 문장(단어 시퀀스) W는 n개의 단어로 이루어져 있습니다:* 문장 전체의 출현 확률은 모든 단어가 순서대로 함께 나타날 **결합 분포(Joint Distribution)**로 표현됩니다:
  • 핵심 공식 (확률의 연쇄 법칙): 문장 전체의 확률 P(W)는 각 단어의 조건부 확률을 순서대로 모두 곱한 값과 같습니다.
    • Π (파이): 이 기호는 모든 항을 곱하라는 의미입니다.
    • P(w_i | w_1, ..., w_{i-1}): 1번째부터 i-1번째 단어까지 등장했을 때, i번째 단어가 등장할 조건부 확률입니다.
  • 예시로 쉽게 이해하기: "I love you" 라는 문장의 확률을 계산해 봅시다.
    • W = {I, love, you}
    • P(I love you) = P(I) * P(love | I) * P(you | I, love)
    이 공식의 의미는 다음과 같습니다.
    1. P(I): 문장이 "I"로 시작할 확률.
    2. P(love | I): 문장이 "I"로 시작했을 때, 다음 단어가 "love"일 확률.
    3. P(you | I, love): 문장이 "I love"로 시작했을 때, 다음 단어가 "you"일 확률.
    이 세 확률을 모두 곱하면 "I love you"라는 문장 전체의 자연스러움(확률)을 계산할 수 있습니다.

## 3. 조건부 확률 복습 및 NLP에서의 활용

슬라이드 마지막 부분은 조건부 확률의 기본 정의와 NLP에서의 의미를 설명합니다.

  • 조건부 확률의 정의:
    • 사건 B가 이미 일어났다고 가정했을 때, 사건 A가 일어날 확률
    • 수식:
  • NLP에서의 활용 (이것이 핵심!):
    • B (조건): 문맥 (Context), 즉 이전에 등장한 단어들 (w_1, ..., w_{i-1})
    • A (사건): 새로운 단어 (New Word), 즉 다음에 등장할 단어 (w_i)
    결국, 언어 모델은 주어진 문맥(B) 하에서 새로운 단어(A)가 나타날 확률 P(A|B)을 계산하는 모델이라고 할 수 있습니다. 이는 언어가 순차적인(sequential) 특성을 가지기 때문에 가능한 접근 방식입니다.

## 🦉 시험 대비 최종 요약 (Key Exam Takeaways)

  • 자연스러움 = 확률: 언어 모델에게 '자연스럽다'는 것은 곧 **'확률이 높다'**는 의미입니다.
  • 핵심 계산 도구: 조건부 확률 P(다음 단어 | 이전 단어들)
  • 문장 전체 확률 계산법: **확률의 연쇄 법칙(Chain Rule)**을 사용하여, 각 단계의 조건부 확률을 처음부터 끝까지 모두 곱합니다. (P(W) = P(w1) * P(w2|w1) * P(w3|w1,w2) * ...)
  • 조건부 확률 P(A|B)와 NLP의 관계:
    • B는 문맥(Context)
    • A는 새로운 단어(New Word)

## 1. 확률의 연쇄 법칙 (Chain Rule): 문장을 확률로 분해하기

첫 번째 슬라이드는 문장 전체의 확률을 어떻게 계산하는지 다시 한번 보여줍니다.

  • 핵심 원리: 문장 전체가 등장할 확률은, 각 단어가 이전 문맥 하에서 등장할 조건부 확률들을 모두 곱한 것과 같습니다.
  • 수식:
  • 슬라이드 예시 분석: "아침에 버스를 타고 학교에 왔다"라는 문장의 확률 계산
    • 이 문장의 자연스러움(확률)은 아래 5개 확률의 곱으로 계산됩니다.
      1. P(아침에): 문장이 '아침에'로 시작할 확률
      2. P(버스를 | 아침에): '아침에' 다음에 '버스를'이 나올 확률
      3. P(타고 | 아침에 버스를): '아침에 버스를' 다음에 '타고'가 나올 확률
      4. P(학교에 | 아침에 버스를 타고): '아침에 버스를 타고' 다음에 '학교에'가 나올 확률
      5. P(왔다 | 아침에 버스를 타고 학교에): '아침에 버스를 타고 학교에' 다음에 '왔다'가 나올 확률
  • 🔑 최종 결론: 이 곱셈의 결과, 즉 최종 확률값이 높을수록 우리 모델은 이 문장을 **"더 자연스럽다"**고 평가합니다.

## 2. 통계 기반 언어 모델: 확률을 '카운트'로 계산하기

그렇다면 P(타고 | 아침에 버스를) 같은 조건부 확률 값은 어떻게 알아낼까요? 통계 기반 언어 모델(n-gram 모델 등)은 아주 간단한 방법을 사용합니다. 바로 전체 텍스트 데이터(Corpus)에서 직접 단어의 등장 횟수(카운트)를 세는 것입니다.

  • 핵심 계산 공식:
  • 공식 해설:
    • 분모 count(w_1, ..., w_{t-1}): 문맥에 해당하는 단어 뭉치 (예: "아침에 버스를")가 전체 데이터에서 총 몇 번 등장했는가?
    • 분자 count(w_1, ..., w_{t-1}, w_t): 그 문맥 뒤에 우리가 궁금해하는 다음 단어(예: "타고")까지 붙은 전체 뭉치 (예: "아침에 버스를 타고")가 총 몇 번 등장했는가?
  • 쉬운 예시: P(cream | ice)를 계산해 봅시다.
    1. 데이터 전체에서 "ice"라는 단어가 총 1000번 나왔다고 가정합니다. (count(ice) = 1000)
    2. 그중에서 "ice" 바로 다음에 "cream"이 나온 경우, 즉 "ice cream"이 총 800번 나왔다고 가정합니다. (count(ice cream) = 800)
    3. 계산 결과: P(cream | ice) = 800 / 1000 = 0.8 (80%) 이 됩니다.

## 3. 통계 기반 모델의 치명적 한계: 희소성 문제 (Sparsity Problem) 😥

카운트 기반 방식은 직관적이고 간단하지만, 매우 치명적인 약점을 가지고 있습니다.

  • 문제점: 문장이 조금만 길어져도, 해당 문장이 학습 데이터에 한 번도 등장하지 않았을 확률이 매우 높습니다.
    • 예시: P(왔다 | 아침에 버스를 타고 학교에)를 계산하려면, 분모인 count(아침에 버스를 타고 학교에) 값을 알아야 합니다. 하지만 우리가 가진 수많은 책과 뉴스 기사 데이터 전체를 뒤져봐도 "아침에 버스를 타고 학교에"라는 구절이 정확히 똑같이 등장한 적이 한 번도 없을 수 있습니다.
  • 결과 (희소성 문제):
    1. 분모가 0이 되는 문제: 문맥에 해당하는 구절이 데이터에 없으면 count가 0이 되어 확률 계산 자체가 불가능해집니다. (0으로 나누기 오류)
    2. 분자가 0이 되는 문제: 문맥은 있었지만 그 다음에 특정 단어가 온 적이 없다면, 확률이 0이 됩니다. 이는 문법적으로 완벽한 문장이라도 처음 보는 문장이면 부자연스럽다고 판단해버리는 심각한 문제를 낳습니다.
  • 결론:희소성 문제 때문에 통계 기반 언어 모델은 처음 보는 문장이나 긴 문장에 대한 일반화 성능이 매우 떨어집니다. 이것이 바로 현대 언어 모델들이 단순히 카운트하는 대신, 단어의 의미를 벡터로 학습하는 신경망(Neural Network) 기반으로 발전하게 된 가장 중요한 이유입니다.

## 🦉 시험 대비 최종 요약

  • 연쇄 법칙 (Chain Rule): 문장 전체의 확률을 구하기 위해 조건부 확률들을 곱하는 수학적 규칙.
  • 통계 기반 모델의 계산법: 조건부 확률을 단어 등장 횟수를 세서 (카운트 기반으로) 계산한다. (분자: 전체 시퀀스 카운트 / 분모: 문맥 시퀀스 카운트)
  • 희소성 문제 (Sparsity Problem): 통계 기반 모델의 가장 큰 단점. 문장이 길어지면 데이터에 해당 구절의 카운트가 0이 되어, 처음 보는 문장에 대한 확률 계산이 불가능하거나 부정확해진다. 이 문제를 해결하기 위해 신경망 언어 모델이 등장했다.
반응형

+ Recent posts