728x90
다운스트림 태스크(Downstream task)는 전이 학습(transfer learning)에서 기존의 학습된 모델을 새로운 작업에 적용하는 과정을 의미한다. 즉, 이미 학습된 모델이 다른 작업에 사용될 때, 그 작업을 Downstream task라고 한다.
전이 학습은 사전 학습(pre-training)된 모델을 새로운 작업에 적용하기 위해 필요한 과정이다. 사전 학습된 모델을 새로운 작업에 적용하기 위해서는 새로운 작업에 맞게 모델을 Fine-tuning해야 한다. 이때 새로운 작업이 바로 Downstream task이다.
자연어 처리 분야에서 GPT-3와 같은 대형 언어 모델은 대량의 텍스트 데이터를 이용해 사전 학습되며, 이 모델을 다양한 Downstream task에 활용할 수 있다.
예를 들어, 텍스트 분류, 질문 응답, 요약 등의 작업에 활용될 수 있다. 이때 각 작업이 Downstream task가 된다.
728x90
'AI' 카테고리의 다른 글
베이즈 이론(Bayes' Theorem) (0) | 2023.04.24 |
---|---|
확률과 확률 분포 (0) | 2023.04.24 |
자기 지도 학습(Self-Supervised Learning) (0) | 2023.04.05 |
Software 1.0 VS. Software 2.0 (0) | 2023.04.05 |
머신러닝(Machine Learning) 학습 방법, 종류 (0) | 2023.04.03 |