목록LLM (2)
공부하는 안씨의 기록

이번 논문 리뷰에서는 Neural Machine Translation 분야에서 Attention 메커니즘을 처음 도입한 논문인 "Neural Machine Translation by Jointly Learning to Align and Translate"를 다루고자 한다. 이 논문은 기존 Seq2Seq 구조의 한계인 Bottleneck 문제를 해결하고자 Attention 메커니즘을 제안한 점에서 큰 의의가 있다. 패스트 캠퍼스 강의에서 Attention 관련 강의를 수강하다가, 해당 논문을 언급해주셔서, 따로 논문 리뷰를 진행해보았다. Attention 메커니즘을 잘 이해하기 위해 정리해보았는데, 아직 미숙한 실력이지만 이번 논문을 리뷰해 보면서 학습에 큰 도움이 되었다. 논문 링크1. 기존 Seq2Se..

Large language model based multi-agents: A survey of progress and challenges 위 서베이 논문을 읽고, 정리해본 내용이다. 졸업 프로젝트를 진행하기 앞서 관련 선행 연구를 이해하고, 개념을 정리하기 위해 리뷰해보았다. 1. 배경LLM-MA 시스템의 기본 개념LLM-MA 시스템은 단일 LLM 에이전트의 고급 계획 및 추론 능력을 확장하여 여러 에이전트가 협력하여 문제를 해결하거나 세계를 시뮬레이션하도록 설계된 시스템.이 시스템은 각 에이전트가 특정 역할과 능력을 가지며, 상호작용과 협력을 통해 집단 지능을 발휘함.단일 LLM 시스템이 개별 작업에 집중하는 반면, LLM-MA는 다중 에이전트의 상호작용과 협업을 통해 더 복잡한 작업을 처리단일 에이..