Skip to main content

Command Palette

Search for a command to run...

AI Agent là gì? Định nghĩa và đặc điểm

AI Agent là gì? Điều gì phân biệt agent với chatbot hay các hệ thống AI khác?

Updated
8 min read
AI Agent là gì? Định nghĩa và đặc điểm

Bài 01: AI Agent là gì?

Câu hỏi nghiên cứu

AI Agent là gì? Điều gì phân biệt agent với chatbot hay các hệ thống AI khác?


Tóm tắt

Bài viết này định nghĩa AI Agent từ góc nhìn học thuật, truy vết lịch sử phát triển từ BDI agents đến LLM agents hiện đại. Chúng tôi phân tích các đặc điểm cốt lõi (autonomy, tool use, reasoning) và đề xuất phổ năng lực 4 cấp độ để đánh giá khả năng của agent.


1. Giới thiệu

1.1. Định nghĩa học thuật

Theo Russell & Norvig trong cuốn sách kinh điển Artificial Intelligence: A Modern Approach (2020) [^1]:

"An agent is anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators."

(Tạm dịch: "Agent là bất kỳ thực thể nào có thể được xem là nhận thức môi trường thông qua các cảm biến và tác động lên môi trường đó thông qua các bộ thực thi.")

Định nghĩa này nhấn mạnh ba thành phần cốt lõi:

Thành phầnMô tảVí dụ trong LLM Agent
PerceiveQuan sát môi trườngNhận câu hỏi từ user, đọc dữ liệu
ReasonXử lý thông tin, đưa ra quyết địnhLLM suy luận cần làm gì
ActTác động lên môi trườngGọi API, query database, gửi email

1.2. Rational Agent

Russell & Norvig mở rộng với khái niệm Rational Agent:

"A rational agent is one that acts so as to achieve the best outcome or, when there is uncertainty, the best expected outcome." [^1]

(Tạm dịch: "Agent hợp lý là agent hành động để đạt được kết quả tốt nhất, hoặc khi có sự không chắc chắn, đạt được kết quả kỳ vọng tốt nhất.")

1.3. LLM Agent

LLM Agent kết hợp định nghĩa agent cổ điển với khả năng của Large Language Models. Framework CoALA (Cognitive Architectures for Language Agents) của Sumers et al. (2023) đề xuất cách nhìn có hệ thống với 3 thành phần: Memory, Action Space, và Decision Making (xem chi tiết ở Bài 02: Kiến trúc AI Agent).

Theo Wang et al. (2024) [^2]:

"LLM agents represent a paradigm shift in AI, enabling autonomous systems to plan, reason, use tools, and maintain memory while interacting with dynamic environments."

(Tạm dịch: "LLM agents đại diện cho một bước chuyển đổi mô hình trong AI, cho phép các hệ thống tự chủ có thể lập kế hoạch, suy luận, sử dụng công cụ, và duy trì bộ nhớ trong khi tương tác với môi trường động.")


2. Lịch sử phát triển

2.1. Timeline

Thời kỳLoại AgentĐặc điểmPaper tiêu biểu
1950s-1980sRule-basedIf-then rules, expert systemsMYCIN, DENDRAL
1990sBDI AgentsBelief-Desire-IntentionRao & Georgeff (1995) [^3]
2000s-2010sRL AgentsHọc từ reward signalsDQN, AlphaGo
2022ReActReasoning + ActingYao et al. (2022) [^4]
2023-nayLLM AgentsLanguage model làm reasoning engineAutoGPT, Claude

2.2. BDI Architecture

Kiến trúc Belief-Desire-Intention của Rao & Georgeff (1995) là nền tảng quan trọng [^3]:

"BDI agents are able to balance the time spent on deliberating about plans and executing those plans."

(Tạm dịch: "BDI agents có khả năng cân bằng thời gian dành cho việc cân nhắc kế hoạch và thực thi các kế hoạch đó.")

ComponentMô tả
BeliefNhững gì agent tin là đúng về thế giới
DesireMục tiêu agent muốn đạt được
IntentionKế hoạch agent cam kết thực hiện

2.3. ReAct Pattern

Yao et al. (2022) đề xuất ReAct - kết hợp reasoning và acting [^4]:

"ReAct prompts LLMs to generate both verbal reasoning traces and actions in an interleaved manner, allowing the model to perform dynamic reasoning to create, maintain, and adjust high-level plans for acting."

(Tạm dịch: "ReAct hướng dẫn LLMs tạo ra cả chuỗi suy luận bằng lời và hành động theo cách xen kẽ, cho phép mô hình thực hiện suy luận động để tạo, duy trì và điều chỉnh các kế hoạch cấp cao cho việc hành động.")


3. Đặc điểm của AI Agent

3.1. Autonomy

Theo Feng et al. (2025) trong paper "Levels of Autonomy for AI Agents" [^5], có 5 mức độ autonomy:

LevelUser RoleMô tả
1OperatorUser điều khiển trực tiếp từng bước
2CollaboratorUser và agent cùng làm việc
3ConsultantAgent đề xuất, user quyết định
4ApproverAgent thực hiện, user phê duyệt
5ObserverAgent tự quyết định, user chỉ quan sát

3.2. Tool Use

Theo Qu et al. (2024) [^6]:

"Tool learning refers to the ability of LLMs to learn and utilize various tools, such as calculators, code editors, and databases, to assist in completing complex tasks."

(Tạm dịch: "Tool learning đề cập đến khả năng của LLMs học và sử dụng các công cụ khác nhau, như máy tính, trình soạn thảo code, và cơ sở dữ liệu, để hỗ trợ hoàn thành các tác vụ phức tạp.")

3.3. Reasoning

Wei et al. (2022) chứng minh hiệu quả của Chain-of-Thought trên benchmark MultiArith [^7]:

"Chain of thought prompting improves performance on a range of arithmetic, commonsense, and symbolic reasoning tasks."

(Tạm dịch: "Chain of thought prompting cải thiện hiệu suất trên nhiều tác vụ suy luận số học, thường thức và ký hiệu.")

Cụ thể, với GPT-3 (text-davinci-002) trên MultiArith dataset, CoT prompting tăng độ chính xác từ 17.7% lên 78.7% [^7a].


4. Phổ năng lực Agent

4.1. Bốn cấp độ

LevelKhả năngVí dụGiới hạn
Level 1Tools cố địnhEnterprise agentsChỉ làm được những gì tools cho phép
Level 2+ Web searchChatGPT BrowsingTìm thông tin mới, không tạo tools
Level 3+ Code generationDevin, OpenHandsTự viết code để giải quyết vấn đề
Level 4+ Self-improvement(Hướng tới AGI)Tự nâng cấp bản thân

4.2. Recursive Self-Improvement

Theo Gao et al. (2025) trong survey về Self-Evolving Agents [^8]:

"Self-evolving agents can adaptively reason, act, and evolve in real time... enabling continual learning and adaptation from data, interactions, and experiences."

(Tạm dịch: "Self-evolving agents có thể suy luận, hành động và tiến hóa một cách thích ứng trong thời gian thực... cho phép học liên tục và thích ứng từ dữ liệu, tương tác và trải nghiệm.")

Recursive Self-Improvement (RSI) là quá trình trong đó một hệ thống AI tự nâng cao năng lực của mình mà không cần sự can thiệp của con người, có thể dẫn đến sự gia tăng đột biến về trí tuệ.


5. Agent vs Chatbot vs RAG

Khả năngChatbotRAGAI Agent
Đọc dữ liệu bên ngoài
Thực hiện hành động
Tự lập kế hoạch
Multi-turn reasoning
Tự mở rộng năng lực⚠️ (Level 3+)

6. Thảo luận

6.1. Liên hệ với câu hỏi nghiên cứu

Quay lại câu hỏi trung tâm của series:

"Cho thời gian vô hạn, với khả năng truy cập không giới hạn vào internet, liệu AI Agent có thể đạt được những gì?"

Dựa trên phân tích, năng lực của agent phụ thuộc vào:

Yếu tốẢnh hưởng
LLM capabilityKhả năng reasoning, planning
Available toolsGiới hạn action space
Memory designKhả năng học và nhớ
Self-improvementKhả năng tự nâng cấp

6.2. Câu hỏi mở

  1. Nếu agent có thể tự viết tools, làm sao đảm bảo an toàn?
  2. Với internet access không giới hạn, agent có thể tự học mọi thứ không?
  3. Liệu LLM agents có thể đạt được recursive self-improvement thực sự?

7. Kết luận

Khái niệmĐịnh nghĩa
AgentThực thể có khả năng perceive, reason, act
LLM AgentAgent sử dụng LLM làm reasoning engine
BDIBelief-Desire-Intention architecture
ReActReasoning + Acting pattern

Key insight:

Năng lực Agent = f(LLM capability, Available tools, Memory design, Self-improvement ability)


Tài liệu tham khảo

[^1]: Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson. https://aima.cs.berkeley.edu/

[^2]: Wang, L., Ma, C., Feng, X., et al. (2024). "A Survey on Large Language Model based Autonomous Agents." Frontiers of Computer Science. https://arxiv.org/abs/2308.11432

[^3]: Rao, A. S., & Georgeff, M. P. (1995). "BDI Agents: From Theory to Practice." ICMAS. https://www.researchgate.net/publication/2816837

[^4]: Yao, S., Zhao, J., Yu, D., et al. (2022). "ReAct: Synergizing Reasoning and Acting in Language Models." ICLR 2023. https://arxiv.org/abs/2210.03629

[^5]: Feng, K. J., et al. (2025). "Levels of Autonomy for AI Agents." arXiv preprint. https://arxiv.org/abs/2506.12469

[^6]: Qu, C., Dai, S., Wei, X., et al. (2024). "Tool Learning with Large Language Models: A Survey." arXiv preprint. https://arxiv.org/abs/2405.17935

[^7]: Wei, J., Wang, X., Schuurmans, D., et al. (2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models." NeurIPS 2022. https://arxiv.org/abs/2201.11903

[^7a]: Chen, J., Chen, L., Huang, H., & Zhou, T. (2023). "When do you need Chain-of-Thought Prompting for ChatGPT?" arXiv preprint. https://arxiv.org/abs/2304.03262

[^8]: Gao, H., Geng, J., Hua, W., et al. (2025). "A Survey of Self-Evolving Agents: On Path to Artificial Super Intelligence." arXiv preprint. https://arxiv.org/abs/2507.21046