CoT 의 진화, 탈언어화와 검증으로

원래 LLM의 발전은 스케일링 법칙(Scaling Laws)에 의존해왔죠. 모델의 파라미터와 데이터량을 늘리면 AI가 선형적으로 향상될 것이라는 믿음은 사실 지금도 유효하긴 합니다. 모델들은 인간의 언어 패턴을 방대한 확률적, 통계적 연산으로 모방하며 놀라운 퍼포먼스를 보여줬으나, 복잡한 논리 구조나 수학적 추론 앞에서는 취약한 한계를 드러냈습니다. LLM은 근본적으로 다음에 올 가장 확률이 높은 단어를 예측하는 시스템입니다. 겉으로는 지능적인 대화를 하는것 … CoT 의 진화, 탈언어화와 검증으로 계속 읽기