Posts
기술 글, 회고, 그리고 생각들
AI Agent 진화사: 2022-2025 발전 타임라인
2026년 2월 1일Chain of Thought부터 OpenAI o1까지 - AI 에이전트의 주요 발전을 정리합니다
Chain of Thought (CoT): 단계별 추론의 시작
2026년 2월 1일Let's think step by step - LLM에게 생각하는 과정을 보여주는 것만으로 성능이 2배 향상됩니다
CRITIC: 외부 도구를 통한 검증
2026년 2월 1일모델 자체 판단이 아닌, 외부 도구(검색, 코드 실행, 계산기)를 사용해 답변을 검증하고 개선합니다
DeepSeek-R1: 오픈소스 추론 모델
2026년 2월 1일OpenAI o1과 유사한 성능을 달성한 오픈소스 모델. 특히 R1-Zero는 순수 강화학습만으로 추론 능력이 자동 출현
LATS: 통합 에이전트 프레임워크
2026년 2월 1일Tree of Thought, ReAct, Reflexion, Monte Carlo Tree Search를 모두 통합한 강력한 에이전트 프레임워크
LLM Agent Survey: 에이전트 아키텍처 종합
2026년 2월 1일LLM 에이전트의 구성, 협력, 진화를 다루는 Build-Collaborate-Evolve 프레임워크 소개
MADKE: 지식 강화 다중 에이전트 토론
2026년 2월 1일Multi-Agent Debate에 공유 지식 풀을 도입하여 토론 품질을 향상시킵니다
Multi-Agent Debate: 토론을 통한 집단 지성
2026년 2월 1일여러 AI 에이전트가 서로 토론하며 문제를 해결합니다. 다양한 관점과 상호 검증으로 더 나은 답에 도달합니다
OpenAI o1: 내부 추론 토큰의 혁명
2026년 2월 1일기존 모델과 달리 사고 과정을 노출하지 않고, 내부적으로 깊은 추론 후 결과만 출력하는 '생각하는' AI
RAG: 검색 강화 생성
2026년 2월 1일LLM의 내부 지식만 사용하는 대신, 외부 데이터베이스에서 관련 정보를 검색하여 응답 생성에 활용합니다
ReAct: 추론과 행동의 결합
2026년 2월 1일Reasoning + Acting - 생각한 후 도구를 사용하고, 결과를 관찰하는 순환 구조
Reflexion: 실패로부터 배우는 에이전트
2026년 2월 1일실패한 시도를 언어로 분석하고 메모리에 저장하여, 다음 시도에서 같은 실수를 반복하지 않습니다
Self-Refine: 반복적 자기 개선
2026년 2월 1일같은 모델에게 피드백을 요청하고, 그 피드백을 바탕으로 답변을 반복 개선합니다
Test-Time Compute Scaling: 추론 시간 최적화
2026년 2월 1일훈련이 아닌 추론 시점에서 더 많은 계산 자원을 사용하여 성능을 향상시키는 새로운 패러다임
Tree of Thought (ToT): 다중 경로 탐색
2026년 1월 28일하나의 경로만 따라가지 않고, 여러 가능한 경로를 동시에 탐색하여 최적의 해결책을 찾습니다