본문 바로가기
[논문 리뷰] FINETUNED LANGUAGE MODELS ARE ZERO-SHOTLEARNERS (FLAN) https://arxiv.org/pdf/2109.01652.pdf Abstract 본 논문은 FLAN 이라는 모델을 소개합니다. 그리고 궁극적인 목표는 LM의 Zero-shot Learning 능력을 향상시키기 위한 simple method를 찾는 것이라고 이야기합니다. 그래서 그 방법으로 instruction-tuning을 보여주며 이 학습 방법이 zero-shot 에 대한 ability를 향상시킨다고 주장합니다. 그리고 Instruction tuned 된 모델을 FLAN 이라고 소개하죠. FLAN은 137B이며 60여개의 NLP 데이터셋들로 instruction-tuned 시켰다고 합니다. instruction-tuning 은 위와 같이 NLP Tasks를 언어 모델에 지시사항과 함께 넣어 주어 학습.. 2024. 1. 4.
[논문 리뷰] MULTITASK PROMPTED TRAINING ENABLESZERO-SHOT TASK GENERALIZATION (T0) https://arxiv.org/pdf/2110.08207.pdf Abstract 명시적 학습에 의해 zero shot 생성이 유도 될 수 있을까? 라는 질문에서 출발해서 다양한 Task를 다루는 멀티 task 혼합물을 encoder-decoder 모델에 fine-tune 시킴으로써 증명했다. Introduction 그 모델이 T0라는 모델이다. 모델의 구조는 추후 설명하겠지만 위와 같이 다양한 multi-task를 학습 시킴으로써 아래와 같이 학습할 때는 본적 없는 NLI에 대해 답을 할 수 있도록 하는 것이 목적이겠다. 참고로 모델이 pretrain 될 때 zero shot을 위한 정보들이 모델에 학습된다는 이야기도 하고 있다. 그게 암묵적인 가정이라고 하신다. Related Work *Multita.. 2024. 1. 3.
[경량화 #1] SparseGPT: Massive Language Models Can Be Accurately Pruned in One-Shot 리뷰 *논문 내용 뿐 아니라 필자의 주관적인 내용 + 다양한 출처의 내용이 들어가 있는 리뷰입니다. Abstract GPT generative pretrained transformer family 모델에 최소 50% 이상을 sparse하게 가지치기했다고 한다. 재학습이 없고 sparseGPT라는 새로운 pruning method를 사용했다고 한다. 이 메서드를 오픈 소스 모델에 적용을 시켰고 perplexity 에서 무시할 ㅅ구 없는 성능 향상을 보였다고 한다. 1. Introduction LLMs 이 GPT 방법으로 가면서 굉장한 연산 비용을 요구하게 되었다. 그래서 compression이 대두 되었고 그 중 하나가 Pruning 방법이다. Pruning에는 Unstructured Pruning 과 Stru.. 2024. 1. 3.
CS224N Language Models and Recurrent Neural Networks (win 2021) 공부하면서 스터디 모임을 하는 동안 배웠고 가져가면 좋겠다고 느낀 부분들을 정리하도록 하겠습니다. 추후 공부해야 할 내용 ( torch 를 다루는 부분 입니다) https://colab.research.google.com/drive/1Z6K6nwbb69XfuInMx7igAp-NNVj_2xc3?usp=sharing CS224N PyTorch Tutorial.ipynb Colaboratory notebook colab.research.google.com Non-linear function 즉, activation function으로 인해 선형이었던 그래프는 비선형성을 가지게 되고 더 많은 데이터를 더 정확하게 구분할 수 있게 되었습니다. (*비선형함수 : 전체의 구간에서 하나로 설명이 안된다. + 신경망의 .. 2023. 10. 11.