기후위기시계
실시간 뉴스
  • KAIST·네이버, 대형언어모델 추천시스템 개발
경량화 신경망 학습 ‘최상의 추천’
다중도메인 상품 추천성능 42%↑
학습·추론속도 각 253%·171%↑

국내 연구진이 최상의 추천을 제공하는 대형언어모델(LLM) 기술 개발에 성공했다.

KAIST는 산업및시스템공학과 박찬영(사진) 교수 연구팀이 네이버와 공동연구를 통해 협업 필터링 기반 추천 모델이 학습한 사용자의 선호에 대한 정보를 추출하고 이를 상품의 텍스트와 함께 대형언어모델에 주입해 상품 추천의 높은 정확도를 달성할 수 있는 새로운 대형언어모델 기반 추천시스템 기술을 개발했다고 17일 밝혔다.

이번 연구는 기존에 비해 학습 속도 253% 향상, 추론 속도 171% 향상, 상품 추천 평균 12%의 성능 향상을 이뤄냈다.

특히 사용자의 소비 이력이 제한된 퓨샷(Few-shot) 상품 추천에서 평균 20%의 성능 향상, 다중-도메인(Cross-domain) 상품 추천에서 42%의 성능 향상을 이뤄냈다.

기존 대형언어모델을 활용한 추천 기술들은 사용자가 소비한 상품 이름들을 단순히 텍스트 형태로 나열해 대형언어모델에 주입하는 방식으로 추천을 진행했다.

예를 들어 사용자가 영화 극한직업, 범죄도시1, 범죄도시2를 보았을 때 다음으로 시청할 영화는 무엇인가?라고 대형언어모델에 질문하는 방식이었다.

이에 반해, 연구팀이 착안한 점은 상품 제목 및 설명과 같은 텍스트뿐 아니라 협업 필터링 지식, 즉, 사용자와 비슷한 상품을 소비한 다른 사용자들에 대한 정보가 정확한 상품 추천에 중요한 역할을 한다는 점이었다. 하지만 이러한 정보를 단순히 텍스트화하기에는 한계가 존재한다.

이에 따라 연구팀은 미리 학습된 협업 필터링 기반 추천 모델로부터 사용자의 선호에 대한 정보를 추출하고 이를 대형언어모델이 이해할 수 있도록 변환하는 경량화된 신경망을 도입했다.

개발한 기술의 특징은 대형언어모델의 추가적인 학습이 필요하지 않다는 점이다.

기존 연구들은 상품 추천을 목적으로 학습되지 않은 대형언어모델이 상품 추천이 가능하게 하도록 대형언어모델을 파인튜닝(Fine-tuning)하는 방법을 사용했다. 하지만 이는 학습과 추론에 드는 시간을 급격히 증가시키므로 실제 서비스에서 대형언어모델을 추천에 활용하는 것에 큰 걸림돌이 된다.

이에 반해 연구팀은 대형언어모델의 직접적인 학습 대신 경량화된 신경망의 학습을 통해 대형언어모델이 사용자의 선호를 이해할 수 있도록 했고, 이에 따라 기존 연구보다 빠른 학습 및 추론 속도를 달성했다.

박찬영 교수는 “대화형 추천 시스템이나 개인화 상품 정보 생성 등 다양한 고도화된 추천 서비스를 등장시킬 수 있을 것”이라며 “추천 도메인에 국한되지 않고 이미지, 텍스트, 사용자-상품 상호작용 정보를 모두 사용하는 진정한 멀티모달 추천 방법론으로 진화할 것으로 본다”고 말했다.

구본혁 기자

nbgkoo@heraldcorp.com

맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크