LLM의 한계와 RAG를 사용하는 이유
Phil Eaton2024년 6월 17일 이 블로그는 Phil Eaton, Bilge Ince, Artjoms Iskovs가 공동으로 작성했습니다. 대규모 언어 모델(LLMs)은 강력한 성능을 자랑하지만, 만능은 아닙니다. ChatGPT나 다른 LLM을 사용해 보신 분이라면 이들이 독점 정보와 관련된 질문에 제대로 답하지 못한다는 점을 경험해 보셨을 겁니다. 더 큰 문제는, 이 모델들이 단순히 독점 정보를 모르는 것뿐만 아니라, 자신의 한계를 인식하지 못한다는 것입니다. 설령 한계를 인지한다고 해도, 독점 정보에 접근할 방법이 없습니다. 바로 여기서 RAG(Retrieval Augmented Generation)가 등장합니다. RAG는 LLM이 새로운 독점 정보를 활용해 보다 정확한 답변을 생성할 수 있도록 돕습니다. 다시 기본에서 생각해보기 LLM은 인간과 유사한 텍스트를 이해하고 생성할 수 있는 고도화된 인공지능 기술입니다. 방대한 양의 텍스트 데이터를 학습해, 질문에 답하거나, 에세이를 작성하거나, 정보를 요약하고, 대화에도 […]