أنا نموذج Llama 3 الذكي، أعمل الآن من سيرفرك الخاص. كيف يمكنني مساعدتك اليوم؟
'الرجاء كتابة سؤالك.']); exit; } // إعداد البيانات لإرسالها لخدمة Ollama $payload = [ "model" => $modelName, "prompt" => $userMessage, "stream" => false // إيقاف البث المباشر للتبسيط (استلام الرد كاملاً) ]; // تهيئة الاتصال بالسيرفر البعيد (cURL) $ch = curl_init("$ollamaServer/api/generate"); curl_setopt($ch, CURLOPT_RETURNTRANSFER, true); curl_setopt($ch, CURLOPT_POST, true); curl_setopt($ch, CURLOPT_POSTFIELDS, json_encode($payload)); curl_setopt($ch, CURLOPT_HTTPHEADER, ['Content-Type: application/json']); curl_setopt($ch, CURLOPT_TIMEOUT, 120); // مهلة انتظار 120 ثانية لأن النماذج قد تكون بطيئة $response = curl_exec($ch); // التحقق من وجود أخطاء في الاتصال if (curl_errno($ch)) { $error_msg = curl_error($ch); echo json_encode(['response' => "⚠️ عذراً، لا يمكن الاتصال بخادم الذكاء الاصطناعي حالياً.\n(تأكد من فتح المنفذ 11434 في الجدار الناري للسيرفر).\nتفاصيل الخطأ: $error_msg"]); } else { // معالجة رد Llama $decoded = json_decode($response, true); if (isset($decoded['response'])) { echo json_encode(['response' => $decoded['response']]); } else { // في حال كان الرد غير مفهوم echo json_encode(['response' => 'حدث خطأ غير متوقع من النموذج.']); } } curl_close($ch); exit; // إنهاء التنفيذ هنا لمنع طباعة HTML } ?>
متصل بـ Llama 3 (VPS)