챗GPT로 대표되는 거대언어모델 성능 개선 속도가 둔화되고 있다는 정황이 여기저기에서 포착되고 있다.그동안 모델 학습에 투입되는 컴퓨팅 파워와 데이터 규모에 비례해 LLM 성능도 빠르게 개선됐지만 최근 상황은 좀 다르다. 투입한 물량 만큼 LLM이 성능 개선이 이뤄지지 않아 오픈AI, 구글 등 관련 업계가 추론 모델 개발 등 우회로 확보에 적극 나선 상황이다.ㆍ오픈AI 이어 구글도 LLM 성능 개선 둔화 딜레마 직면...전략 수정ㆍLLM 성능 확장의 법칙 한계 왔나?...오픈AI, 우회 기술 개