1주 전 쯤에 흥미로운 기사를 봤다. 중국의 AI 기업에서 모델을 학습시킨 방식이 미국의 고성능 모델들의 응답을 활용한 지식 증류 기법이라는 내용의 기사였다. Anthropic에서는 중국의 DeepSeek, Moonshot, MiniMax 가 가짜 계정 2만 4천개를 활용해 클로드를 대상으로 대규모 증류 공격을 했다고 한다. 특히 minimax의 경우 1300만회의 증류 공격을 했다고 한다. 대화당 10~25K 토큰이 사용되었다고 가정할 때 총 약 1,500억~4,000억 개의 토큰이 추출된 것으로 추정되는데 이정도면 파인튜닝에 필요한 양을 아득히 넘어서 아마 메인 모델 사전학습에 사용되지 않았을까 싶다.https://www.finance-scope.com/article/view/scp202602240..