أدوات الدالة (Function Tools)
وسّع قدرات العاملين (agents) باستخدام دوال Rust مخصصة.
ما هي أدوات الدالة (Function Tools)؟
تتيح لك أدوات الدالة منح العاملين (agents) قدرات تتجاوز المحادثة - استدعاء واجهات برمجة التطبيقات (APIs)، وإجراء العمليات الحسابية، والوصول إلى قواعد البيانات، أو أي منطق مخصص. يقرر LLM متى يستخدم الأداة بناءً على طلب المستخدم.
النقاط الرئيسية:
- 🔧 تغليف أي دالة async كأداة قابلة للاستدعاء
- 📝 معلمات JSON - مدخلات/مخرجات مرنة
- 🎯 مخططات آمنة للنوع (Type-safe schemas) - تحقق اختياري من JSON Schema
- 🔗 الوصول إلى السياق (Context access) - حالة الجلسة، القطع الأثرية، الذاكرة
الخطوة 1: أداة أساسية
أنشئ أداة باستخدام FunctionTool::new() وأضف دائمًا مخططًا (schema) حتى يعرف LLM ما هي المعلمات التي يجب تمريرها:
use adk_rust::prelude::*;
use adk_rust::Launcher;
use schemars::JsonSchema;
use serde::{Deserialize, Serialize};
use serde_json::json;
use std::sync::Arc;
#[derive(JsonSchema, Serialize, Deserialize)]
struct WeatherParams {
/// The city or location to get weather for
location: String,
}
#[tokio::main]
async fn main() -> anyhow::Result<()> {
dotenvy::dotenv().ok();
let api_key = std::env::var("GOOGLE_API_KEY")?;
let model = GeminiModel::new(&api_key, "gemini-2.5-flash")?;
// Weather tool with proper schema
let weather_tool = FunctionTool::new(
"get_weather",
"Get current weather for a location",
|_ctx, args| async move {
let location = args.get("location")
.and_then(|v| v.as_str())
.unwrap_or("unknown");
Ok(json!({
"location": location,
"temperature": "22°C",
"conditions": "sunny"
}))
},
)
.with_parameters_schema::<WeatherParams>(); // Required for LLM to call correctly!
let agent = LlmAgentBuilder::new("weather_agent")
.instruction("You help users check the weather. Always use the get_weather tool.")
.model(Arc::new(model))
.tool(Arc::new(weather_tool))
.build()?;
Launcher::new(Arc::new(agent)).run().await?;
Ok(())
}
⚠️ هام: استخدم دائمًا
.with_parameters_schema<T>()- بدونه، لن يعرف LLM ما هي المعلمات التي يجب تمريرها وقد لا يستدعي الأداة.
كيف يعمل:
- يسأل المستخدم: "ما هو الطقس في طوكيو؟"
- يقرر LLM استدعاء
get_weatherبـ{"location": "Tokyo"} - تعيد الأداة
{"location": "Tokyo", "temperature": "22°C", "conditions": "sunny"} - ينسق LLM الاستجابة: "الطقس في طوكيو مشمس ودرجة الحرارة 22 مئوية."
الخطوة 2: معالجة المعلمات
استخرج المعلمات من args من نوع JSON:
let order_tool = FunctionTool::new(
"process_order",
"Process an order. Parameters: product_id (required), quantity (required), priority (optional)",
|_ctx, args| async move {
// Required parameters - return error if missing
let product_id = args.get("product_id")
.and_then(|v| v.as_str())
.ok_or_else(|| adk_core::AdkError::Tool("product_id is required".into()))?;
let quantity = args.get("quantity")
.and_then(|v| v.as_i64())
.ok_or_else(|| adk_core::AdkError::Tool("quantity is required".into()))?;
// Optional parameter with default
let priority = args.get("priority")
.and_then(|v| v.as_str())
.unwrap_or("normal");
Ok(json!({
"order_id": "ORD-12345",
"product_id": product_id,
"quantity": quantity,
"priority": priority,
"status": "confirmed"
}))
},
);
الخطوة 3: معلمات مُحددة النوع مع مخطط
use schemars::JsonSchema;
use serde::{Deserialize, Serialize};
#[derive(JsonSchema, Serialize, Deserialize)]
struct CalculatorParams {
/// The arithmetic operation to perform
operation: Operation,
/// First operand
a: f64,
/// Second operand
b: f64,
}
#[derive(JsonSchema, Serialize, Deserialize)]
#[serde(rename_all = "lowercase")]
enum Operation {
Add,
Subtract,
Multiply,
Divide,
}
let calculator = FunctionTool::new(
"calculator",
"Perform arithmetic operations",
|_ctx, args| async move {
let params: CalculatorParams = serde_json::from_value(args)?;
let result = match params.operation {
Operation::Add => params.a + params.b,
Operation::Subtract => params.a - params.b,
Operation::Multiply => params.a * params.b,
Operation::Divide if params.b != 0.0 => params.a / params.b,
Operation::Divide => return Err(adk_core::AdkError::Tool("Cannot divide by zero".into())),
};
Ok(json!({ "result": result }))
},
)
.with_parameters_schema::<CalculatorParams>();
يتم إنشاء المخطط تلقائيًا من أنواع Rust باستخدام schemars.
الخطوة 4: وكيل متعدد الأدوات
let agent = LlmAgentBuilder::new("assistant")
.instruction("Help with calculations, conversions, and weather.")
.model(Arc::new(model))
.tool(Arc::new(calc_tool))
.tool(Arc::new(convert_tool))
.tool(Arc::new(weather_tool))
.build()?;
يختار LLM الأداة الصحيحة تلقائيًا بناءً على طلب المستخدم.
معالجة الأخطاء
قم بإرجاع AdkError::Tool للأخطاء الخاصة بالأداة:
let divide_tool = FunctionTool::new(
"divide",
"Divide two numbers",
|_ctx, args| async move {
let a = args.get("a").and_then(|v| v.as_f64())
.ok_or_else(|| adk_core::AdkError::Tool("Parameter 'a' is required".into()))?;
let b = args.get("b").and_then(|v| v.as_f64())
.ok_or_else(|| adk_core::AdkError::Tool("Parameter 'b' is required".into()))?;
if b == 0.0 {
return Err(adk_core::AdkError::Tool("Cannot divide by zero".into()));
}
Ok(json!({ "result": a / b }))
},
);
يتم تمرير رسائل الخطأ إلى LLM، والذي يمكنه إعادة المحاولة أو طلب إدخال مختلف.
سياق الأداة
الوصول إلى معلومات الجلسة عبر ToolContext:
#[derive(JsonSchema, Serialize, Deserialize)]
struct GreetParams {
#[serde(default)]
message: Option<String>,
}
let greet_tool = FunctionTool::new(
"greet",
"Greet the user with session info",
|ctx, _args| async move {
let user_id = ctx.user_id();
let session_id = ctx.session_id();
let agent_name = ctx.agent_name();
Ok(json!({
"greeting": format!("Hello, user {}!", user_id),
"session": session_id,
"served_by": agent_name
}))
},
)
.with_parameters_schema::<GreetParams>();
السياق المتاح:
ctx.user_id()- معرف المستخدم الحاليctx.session_id()- معرف الجلسة الحاليctx.agent_name()- اسم الوكيلctx.artifacts()- الوصول إلى تخزين البيانات الاصطناعيةctx.search_memory(query)- خدمة ذاكرة البحث
الأدوات طويلة الأمد
للعمليات التي تستغرق وقتًا طويلاً (معالجة البيانات، واجهات برمجة التطبيقات الخارجية)، استخدم النمط غير المعلق:
- أداة البدء تُرجع على الفور task_id
- العمل في الخلفية يعمل بشكل غير متزامن
- أداة الحالة تسمح للمستخدمين بالتحقق من التقدم
use std::collections::HashMap;
use std::sync::Arc;
use tokio::sync::RwLock;
#[derive(JsonSchema, Serialize, Deserialize)]
struct ReportParams {
topic: String,
}
#[derive(JsonSchema, Serialize, Deserialize)]
struct StatusParams {
task_id: String,
}
// Shared task store
let tasks: Arc<RwLock<HashMap<String, TaskState>>> = Arc::new(RwLock::new(HashMap::new()));
let tasks1 = tasks.clone();
let tasks2 = tasks.clone();
// Tool 1: Start (returns immediately)
let start_tool = FunctionTool::new(
"generate_report",
"Start generating a report. Returns task_id immediately.",
move |_ctx, args| {
let tasks = tasks1.clone();
async move {
let topic = args.get("topic").and_then(|v| v.as_str()).unwrap_or("general").to_string();
let task_id = format!("task_{}", rand::random::<u32>());
// Store initial state
tasks.write().await.insert(task_id.clone(), TaskState {
status: "processing".to_string(),
progress: 0,
result: None,
});
// Spawn background work (non-blocking!)
let tasks_bg = tasks.clone();
let tid = task_id.clone();
tokio::spawn(async move {
// Simulate work...
tokio::time::sleep(tokio::time::Duration::from_secs(10)).await;
if let Some(t) = tasks_bg.write().await.get_mut(&tid) {
t.status = "completed".to_string();
t.result = Some("Report complete".to_string());
}
});
// Return immediately with task_id
Ok(json!({"task_id": task_id, "status": "processing"}))
}
},
)
.with_parameters_schema::<ReportParams>()
.with_long_running(true); // Mark as long-running
// Tool 2: Check status
let status_tool = FunctionTool::new(
"check_report_status",
"Check report generation status",
move |_ctx, args| {
let tasks = tasks2.clone();
async move {
let task_id = args.get("task_id").and_then(|v| v.as_str()).unwrap_or("");
if let Some(t) = tasks.read().await.get(task_id) {
Ok(json!({"status": t.status, "result": t.result}))
} else {
Ok(json!({"error": "Task not found"}))
}
}
},
)
.with_parameters_schema::<StatusParams>();
نقاط رئيسية:
.with_long_running(true)تخبر الوكيل أن هذه الأداة تُرجع حالة معلقة- تقوم الأداة ببدء العمل باستخدام
tokio::spawn()وتُرجع على الفور - وفر أداة للتحقق من الحالة حتى يتمكن المستخدمون من استطلاع التقدم
يضيف هذا ملاحظة لمنع LlmAgent من استدعاء الأداة بشكل متكرر.
تشغيل الأمثلة
cd official_docs_examples/tools/function_tools_test
# Basic tool with closure
cargo run --bin basic
# Tool with typed JSON schema
cargo run --bin with_schema
# Multi-tool agent (3 tools)
cargo run --bin multi_tool
# Tool context (session info)
cargo run --bin context
# Long-running tool
cargo run --bin long_running
أفضل الممارسات
- وصف واضح - لمساعدة LlmAgent على فهم متى تستخدم الأداة
- التحقق من صحة المدخلات - إرجاع رسائل خطأ مفيدة للمعاملات المفقودة
- إرجاع JSON منظم - استخدم أسماء حقول واضحة
- اجعل الأدوات مركزة - يجب أن تقوم كل أداة بشيء واحد بشكل جيد
- استخدام المخططات - للأدوات المعقدة، قم بتعريف مخططات المعاملات
ذات صلة
- Built-in Tools - أدوات جاهزة (GoogleSearch, ExitLoop)
- MCP Tools - تكامل بروتوكول سياق النموذج
- LlmAgent - إضافة أدوات إلى الوكلاء
السابق: ← mistral.rs | التالي: Built-in Tools →