تتبع أي كائن/object في الصور والفيديوهات مع SAM3 من Meta: الأقوى والأحدث والعبقري
أعلنت Meta أمس الـ 19 من نوفمبر عن إطلاق SAM3 (Segment Anything Model): جيل جديد يدعم الإدخال النصي لتتبع الكائنات والأشياء في الصور والفيديو؛ أي أنك تستطيع توجيه النموذج بوصف (مثل: “سيارة حمراء”) أو بمحددات بصرية (مستطيل/مربع) مع إمكانيات تنقية سلبية/إيجابية للأقنعة !!
✴️ يفتح SAM3 نافذة للـ Promptable Concept Segmentation عبر الصور والفيديوهات.
✴️ يسمح بتحديد كل حالات المفهوم البصري الواحد في مشهد كامل؛ مثلاً فصل كل “اللافتات الصفراء” أو تتبع كل “الأشخاص ذوي القبعات المدببة” عبر إطارات الفيديو والحركة.
✴️ يدعم التكامل مع مكتبات Transformers، وهو ما يسهل دمجه بسرعة في سلاسل عمل تحتوي على نماذج لغة أو رؤيا أخرى.
✴️ صدر مع أمثلة تشغيلية مهها عرض تجريبي للفيديو مع prompting بصري/مفاهيمي، ونسخة WebGPU للمتصفح، ومستودع Transformers، ومصادر للتجربة والتطبيق العملي.
رابط HF 🔗
https://huggingface.co/collections/merve/sam3
اقرأ المزيد 🔗
سوريا
مصر
الإمارات
السعودية
قطر