대규모 언어 모델(LLM)
기본적으로 셀프 어텐션(self-attention) 기능을 갖춘 인코더와 디코더로 구성된 신경망 세트
인코더와 디코더는 텍스트에서 의미를 추출하고 텍스트 내의 단어와 구문 간의 관계를 이해함.
- 비지도 학습이 가능하지만 더 정확한 설명은 트랜스포머가 자체 학습을 수행
- 이 과정을 통해 트랜스포머는 기본 문법, 언어 및 지식을 이해
- 입력을 순차적으로 처리하는 이전의 순환 신경망(RNN)과 달리 트랜스포머 전체 시퀀스를 병렬로 처리
LLM은 인간 언어의 입력 프롬프트를 기반으로 콘텐츠를 생성하는 생성형 AI(인공 지능)에 사용
- ChatGPT는 데이터에서 패턴을 식별하고 자연스럽고 읽기 쉬운 결과를 생성
- 카피라이팅
- 지식 기반 답변
- 텍스트 분류
- 코드 생성
- 텍스트 생성
학습 모델
- 제로샷 학습 : 기본 LLM은 응답 정확도는 다르지만 대개 프롬프트를 통해 명시적인 훈련 없이 광범위한 요청에 응답
- 퓨샷 학습 : 몇 가지 관련 훈련 예제를 제공하면 해당 영역에서 기본 모델 성능이 크게 향상
- 미세 조정 : 데이터 사이언티스트과 특정 애플리케이션과 관련된 추가 데이터로 파라미터를 조정하도록 기본 모델을 훈련한다는 점에서 퓨샷 학습의 연장
1 | pip install openai |
1 | import openai |
GPT에게 질문하여 영어 텍스트를 프랑스어로 번역하도록 요청 하는 예시
(OpenAI API 키 필요)
출처 : https://aws.amazon.com/ko/what-is/large-language-model/