728x90

다운스트림 태스크(Downstream task)는 전이 학습(transfer learning)에서 기존의 학습된 모델을 새로운 작업에 적용하는 과정을 의미한다. 즉, 이미 학습된 모델이 다른 작업에 사용될 때, 그 작업을 Downstream task라고 한다.

전이 학습은 사전 학습(pre-training)된 모델을 새로운 작업에 적용하기 위해 필요한 과정이다. 사전 학습된 모델을 새로운 작업에 적용하기 위해서는 새로운 작업에 맞게 모델을 Fine-tuning해야 한다. 이때 새로운 작업이 바로 Downstream task이다.

자연어 처리 분야에서 GPT-3와 같은 대형 언어 모델은 대량의 텍스트 데이터를 이용해 사전 학습되며, 이 모델을 다양한 Downstream task에 활용할 수 있다.

 

예를 들어, 텍스트 분류, 질문 응답, 요약 등의 작업에 활용될 수 있다. 이때 각 작업이 Downstream task가 된다.

 

 

 

728x90

'AI' 카테고리의 다른 글

베이즈 이론(Bayes' Theorem)  (0) 2023.04.24
확률과 확률 분포  (0) 2023.04.24
자기 지도 학습(Self-Supervised Learning)  (0) 2023.04.05
Software 1.0 VS. Software 2.0  (0) 2023.04.05
머신러닝(Machine Learning) 학습 방법, 종류  (0) 2023.04.03

+ Recent posts