AI Agent là gì? Định nghĩa và đặc điểm
AI Agent là gì? Điều gì phân biệt agent với chatbot hay các hệ thống AI khác?

Bài 01: AI Agent là gì?
Câu hỏi nghiên cứu
AI Agent là gì? Điều gì phân biệt agent với chatbot hay các hệ thống AI khác?
Tóm tắt
Bài viết này định nghĩa AI Agent từ góc nhìn học thuật, truy vết lịch sử phát triển từ BDI agents đến LLM agents hiện đại. Chúng tôi phân tích các đặc điểm cốt lõi (autonomy, tool use, reasoning) và đề xuất phổ năng lực 4 cấp độ để đánh giá khả năng của agent.
1. Giới thiệu
1.1. Định nghĩa học thuật
Theo Russell & Norvig trong cuốn sách kinh điển Artificial Intelligence: A Modern Approach (2020) [^1]:
"An agent is anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators."
(Tạm dịch: "Agent là bất kỳ thực thể nào có thể được xem là nhận thức môi trường thông qua các cảm biến và tác động lên môi trường đó thông qua các bộ thực thi.")
Định nghĩa này nhấn mạnh ba thành phần cốt lõi:
| Thành phần | Mô tả | Ví dụ trong LLM Agent |
| Perceive | Quan sát môi trường | Nhận câu hỏi từ user, đọc dữ liệu |
| Reason | Xử lý thông tin, đưa ra quyết định | LLM suy luận cần làm gì |
| Act | Tác động lên môi trường | Gọi API, query database, gửi email |
1.2. Rational Agent
Russell & Norvig mở rộng với khái niệm Rational Agent:
"A rational agent is one that acts so as to achieve the best outcome or, when there is uncertainty, the best expected outcome." [^1]
(Tạm dịch: "Agent hợp lý là agent hành động để đạt được kết quả tốt nhất, hoặc khi có sự không chắc chắn, đạt được kết quả kỳ vọng tốt nhất.")
1.3. LLM Agent
LLM Agent kết hợp định nghĩa agent cổ điển với khả năng của Large Language Models. Framework CoALA (Cognitive Architectures for Language Agents) của Sumers et al. (2023) đề xuất cách nhìn có hệ thống với 3 thành phần: Memory, Action Space, và Decision Making (xem chi tiết ở Bài 02: Kiến trúc AI Agent).
Theo Wang et al. (2024) [^2]:
"LLM agents represent a paradigm shift in AI, enabling autonomous systems to plan, reason, use tools, and maintain memory while interacting with dynamic environments."
(Tạm dịch: "LLM agents đại diện cho một bước chuyển đổi mô hình trong AI, cho phép các hệ thống tự chủ có thể lập kế hoạch, suy luận, sử dụng công cụ, và duy trì bộ nhớ trong khi tương tác với môi trường động.")
2. Lịch sử phát triển
2.1. Timeline
| Thời kỳ | Loại Agent | Đặc điểm | Paper tiêu biểu |
| 1950s-1980s | Rule-based | If-then rules, expert systems | MYCIN, DENDRAL |
| 1990s | BDI Agents | Belief-Desire-Intention | Rao & Georgeff (1995) [^3] |
| 2000s-2010s | RL Agents | Học từ reward signals | DQN, AlphaGo |
| 2022 | ReAct | Reasoning + Acting | Yao et al. (2022) [^4] |
| 2023-nay | LLM Agents | Language model làm reasoning engine | AutoGPT, Claude |
2.2. BDI Architecture
Kiến trúc Belief-Desire-Intention của Rao & Georgeff (1995) là nền tảng quan trọng [^3]:
"BDI agents are able to balance the time spent on deliberating about plans and executing those plans."
(Tạm dịch: "BDI agents có khả năng cân bằng thời gian dành cho việc cân nhắc kế hoạch và thực thi các kế hoạch đó.")
| Component | Mô tả |
| Belief | Những gì agent tin là đúng về thế giới |
| Desire | Mục tiêu agent muốn đạt được |
| Intention | Kế hoạch agent cam kết thực hiện |
2.3. ReAct Pattern
Yao et al. (2022) đề xuất ReAct - kết hợp reasoning và acting [^4]:
"ReAct prompts LLMs to generate both verbal reasoning traces and actions in an interleaved manner, allowing the model to perform dynamic reasoning to create, maintain, and adjust high-level plans for acting."
(Tạm dịch: "ReAct hướng dẫn LLMs tạo ra cả chuỗi suy luận bằng lời và hành động theo cách xen kẽ, cho phép mô hình thực hiện suy luận động để tạo, duy trì và điều chỉnh các kế hoạch cấp cao cho việc hành động.")
3. Đặc điểm của AI Agent
3.1. Autonomy
Theo Feng et al. (2025) trong paper "Levels of Autonomy for AI Agents" [^5], có 5 mức độ autonomy:
| Level | User Role | Mô tả |
| 1 | Operator | User điều khiển trực tiếp từng bước |
| 2 | Collaborator | User và agent cùng làm việc |
| 3 | Consultant | Agent đề xuất, user quyết định |
| 4 | Approver | Agent thực hiện, user phê duyệt |
| 5 | Observer | Agent tự quyết định, user chỉ quan sát |
3.2. Tool Use
Theo Qu et al. (2024) [^6]:
"Tool learning refers to the ability of LLMs to learn and utilize various tools, such as calculators, code editors, and databases, to assist in completing complex tasks."
(Tạm dịch: "Tool learning đề cập đến khả năng của LLMs học và sử dụng các công cụ khác nhau, như máy tính, trình soạn thảo code, và cơ sở dữ liệu, để hỗ trợ hoàn thành các tác vụ phức tạp.")
3.3. Reasoning
Wei et al. (2022) chứng minh hiệu quả của Chain-of-Thought trên benchmark MultiArith [^7]:
"Chain of thought prompting improves performance on a range of arithmetic, commonsense, and symbolic reasoning tasks."
(Tạm dịch: "Chain of thought prompting cải thiện hiệu suất trên nhiều tác vụ suy luận số học, thường thức và ký hiệu.")
Cụ thể, với GPT-3 (text-davinci-002) trên MultiArith dataset, CoT prompting tăng độ chính xác từ 17.7% lên 78.7% [^7a].
4. Phổ năng lực Agent
4.1. Bốn cấp độ
| Level | Khả năng | Ví dụ | Giới hạn |
| Level 1 | Tools cố định | Enterprise agents | Chỉ làm được những gì tools cho phép |
| Level 2 | + Web search | ChatGPT Browsing | Tìm thông tin mới, không tạo tools |
| Level 3 | + Code generation | Devin, OpenHands | Tự viết code để giải quyết vấn đề |
| Level 4 | + Self-improvement | (Hướng tới AGI) | Tự nâng cấp bản thân |
4.2. Recursive Self-Improvement
Theo Gao et al. (2025) trong survey về Self-Evolving Agents [^8]:
"Self-evolving agents can adaptively reason, act, and evolve in real time... enabling continual learning and adaptation from data, interactions, and experiences."
(Tạm dịch: "Self-evolving agents có thể suy luận, hành động và tiến hóa một cách thích ứng trong thời gian thực... cho phép học liên tục và thích ứng từ dữ liệu, tương tác và trải nghiệm.")
Recursive Self-Improvement (RSI) là quá trình trong đó một hệ thống AI tự nâng cao năng lực của mình mà không cần sự can thiệp của con người, có thể dẫn đến sự gia tăng đột biến về trí tuệ.
5. Agent vs Chatbot vs RAG
| Khả năng | Chatbot | RAG | AI Agent |
| Đọc dữ liệu bên ngoài | ❌ | ✅ | ✅ |
| Thực hiện hành động | ❌ | ❌ | ✅ |
| Tự lập kế hoạch | ❌ | ❌ | ✅ |
| Multi-turn reasoning | ❌ | ❌ | ✅ |
| Tự mở rộng năng lực | ❌ | ❌ | ⚠️ (Level 3+) |
6. Thảo luận
6.1. Liên hệ với câu hỏi nghiên cứu
Quay lại câu hỏi trung tâm của series:
"Cho thời gian vô hạn, với khả năng truy cập không giới hạn vào internet, liệu AI Agent có thể đạt được những gì?"
Dựa trên phân tích, năng lực của agent phụ thuộc vào:
| Yếu tố | Ảnh hưởng |
| LLM capability | Khả năng reasoning, planning |
| Available tools | Giới hạn action space |
| Memory design | Khả năng học và nhớ |
| Self-improvement | Khả năng tự nâng cấp |
6.2. Câu hỏi mở
- Nếu agent có thể tự viết tools, làm sao đảm bảo an toàn?
- Với internet access không giới hạn, agent có thể tự học mọi thứ không?
- Liệu LLM agents có thể đạt được recursive self-improvement thực sự?
7. Kết luận
| Khái niệm | Định nghĩa |
| Agent | Thực thể có khả năng perceive, reason, act |
| LLM Agent | Agent sử dụng LLM làm reasoning engine |
| BDI | Belief-Desire-Intention architecture |
| ReAct | Reasoning + Acting pattern |
Key insight:
Năng lực Agent = f(LLM capability, Available tools, Memory design, Self-improvement ability)
Tài liệu tham khảo
[^1]: Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson. https://aima.cs.berkeley.edu/
[^2]: Wang, L., Ma, C., Feng, X., et al. (2024). "A Survey on Large Language Model based Autonomous Agents." Frontiers of Computer Science. https://arxiv.org/abs/2308.11432
[^3]: Rao, A. S., & Georgeff, M. P. (1995). "BDI Agents: From Theory to Practice." ICMAS. https://www.researchgate.net/publication/2816837
[^4]: Yao, S., Zhao, J., Yu, D., et al. (2022). "ReAct: Synergizing Reasoning and Acting in Language Models." ICLR 2023. https://arxiv.org/abs/2210.03629
[^5]: Feng, K. J., et al. (2025). "Levels of Autonomy for AI Agents." arXiv preprint. https://arxiv.org/abs/2506.12469
[^6]: Qu, C., Dai, S., Wei, X., et al. (2024). "Tool Learning with Large Language Models: A Survey." arXiv preprint. https://arxiv.org/abs/2405.17935
[^7]: Wei, J., Wang, X., Schuurmans, D., et al. (2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models." NeurIPS 2022. https://arxiv.org/abs/2201.11903
[^7a]: Chen, J., Chen, L., Huang, H., & Zhou, T. (2023). "When do you need Chain-of-Thought Prompting for ChatGPT?" arXiv preprint. https://arxiv.org/abs/2304.03262
[^8]: Gao, H., Geng, J., Hua, W., et al. (2025). "A Survey of Self-Evolving Agents: On Path to Artificial Super Intelligence." arXiv preprint. https://arxiv.org/abs/2507.21046



