LLAMA

Transformer

LLM Emergent

LLM의 정확도가 급격히 증가하는 현상

Batch Decoding

LLM (Large Language Model) Batch Decoding은 대규모 언어 모델에서 배치 또는 병렬 방식으로 출력을 생성하는 과정을 말합니다.

언어 모델인 GPT-3 또는 유사한 모델의 경우, 디코딩은 주어진 입력 또는 프롬프트에 기반하여 텍스트를 생성하는 것을 의미합니다.

전통적으로, 언어 모델은 텍스트를 순차적으로 생성하는 방식을 사용하여 이전에 생성된 토큰에 의존합니다. 그러나 배치 디코딩에서는 여러 텍스트 시퀀스를 동시에 처리하여 병렬 컴퓨팅 기능을 활용하고 효율성을 향상시킵니다.

배치 디코딩에서는 하나의 시퀀스를 한 번에 생성하는 대신 여러 시퀀스를 동시에 모델에 입력하고, 모델은 모든 시퀀스에 대해 병렬로 출력을 생성합니다. 이 방법은 여러 프롬프트에 대한 응답을 생성하거나 대량의 데이터를 효율적으로 처리해야 할 때 특히 유용할 수 있습니다.

배치 디코딩을 사용하면 대규모 언어 모델에서 텍스트 생성의 처리량과 속도를 높일 수 있으므로, 자연어 처리, 챗봇, 텍스트 생성 등 다양한 응용 분야에서 실용적으로 활용할 수 있습니다.

Instruction tuning

prompt learning의 prompt 방식과 finetuning의 가중치 업데이트를 결합한 튜닝 방법.

모델에게 지시사항(instructions)으로 기술된 태스크를 supervised 방식으로 가르치는 것인데요, 이렇게 가르친다면 모델이 지시사항을 따르는 방식을 학습하게 될 것이고, 따라서 unseen task를 마주했을 때도 지시사항을 따르는 방식을 이미 배웠기 때문에 unseen task의 지시사항에 따라 잘 추론할 수 있을 것이라는 아이디어에서 착안하였습니다.

Ref

LLM 최신 동향 조사

LLM 기술 동향.docx