عصر گویش | هوش مصنوعی
الذهاب إلى القناة على Telegram
2025 عام في الأرقام

111 643
المشتركون
-7724 ساعات
-7427 أيام
-3 10330 أيام
أرشيف المشاركات
✨ روش LeJEPA: انقلابی در یادگیری خودنظارتی — ساده، پایدار و بدون ترفندهای رایج
یانلکان و همکارش در این کار یک تغییر پارادایم مهم معرفی کردهاند:
بهجای اتکا به ترفندهای متداول یادگیری خودنظارتی مثل ماسککردن پیچیده، دوشاخهسازی شبکه، EMA، تقویت دادههای سنگین، یا هزاران هایپرمتر حساس، آنها یک روش ریاضیمحور و بسیار تمیز ارائه کردهاند که با حداقل پیچیدگی، بیشترین کارایی را بهدست میدهد.
🔍 روش LeJEPA دقیقاً چطور کار میکند؟
روش LeJEPA در واقع یک نسخه ساده و عمومیشده از رویکرد JEPA (Joint Embedding Predictive Architecture) است که Yann LeCun همیشه تبلیغش را میکرد.
اما تفاوت مهم این است که:
✓ ساختار از پایه بر اساس اصول اطلاعاتی و هندسی طراحی شده
✓ پیشبینی روی فضای نهفته (latent) انجام میشود، نه پیکسل
✓ بنابراین مدل مجبور میشود نمایشهای پایدار و معنیدار یاد بگیرد
✓ هیچ نیازی به ترفندهای معروف مثل contrastive loss، teacher–student یا EMA نیست
🧩 چرا فقط ۵۰ خط کد کافی است؟
مدل اساساً یک ساختار ساده دارد:
یک انکدر
یک شبکه پیشبینیکننده کوچک
یک تابع هدف بسیار شفاف
همهی پیچیدگیهایی که در روشهای دیگر برای پایداری یادگیری لازم بود—در اینجا ذاتاً حل شده است.
🎯 چه مشکلی را حل میکند؟
مشکل بزرگ یادگیری خودنظارتی فعلی این است که:
❗ نیاز شدید به تنظیم هایپرمترها
❗ رفتار ناپایدار روی معماریهای مختلف
❗ پیچیدگی زیاد کد و پیادهسازی
❗ تکیه بر دیتای عظیم عمومی (بدون کارایی کافی روی دادههای تخصصی)
روش LeJEPA با حذف این مشکلات یک پیام مهم دارد:
➡️ یادگیری خودنظارتی میتواند ساده، پایدار و برای دنیای واقعی قابل استفاده باشد.
🚀 کاربردهای کلیدی
روش LeJEPA نشان میدهد که حتی با دادههای تخصصی و کمحجم میتوان مدلهای سطح بالا ساخت.
این یعنی:
پزشکی: MRI، سونوگرافی، پاتولوژی
علوم: بیوفیزیک، شیمی، فیزیک تجربی
صنعت: کنترل کیفی، حسگرها، پایش فرآیند
حوزههای کمداده: جایی که مدلهای بزرگ عمومی شکست میخورند
در آزمایشها، مدلهای سادهی مبتنی بر LeJEPA روی دادههای تخصصی از مدلهای بزرگ self-supervised رایج هم بهتر کار کردهاند.
📚 مقاله اصلی
https://arxiv.org/abs/2511.08544
#AI #SelfSupervisedLearning #Research #JEPA #RepresentationLearning
@asrgooyeshpardaz
✍ 3❤ 1👍 1🔥 1
🌐 تحولات تازه در دنیای هوش مصنوعی
📈 رشد ۵.۳ برابری کارایی هوش مصنوعی محلی (On-Device)
پژوهش Hazy Research نشان میدهد شاخص «هوش به ازای هر وات» (IPW) طی دو سال گذشته ۵.۳ برابر افزایش یافته است.
مدلهای تا ۲۰ میلیارد پارامتر اکنون میتوانند ۸۸.۷٪ درخواستهای متداول چت و منطق را بدون وابستگی به سرور اجرا کنند.
این جهش ناشی از:
• ۳.۱× بهبود کیفیت مدلها
• ۱.۷× پیشرفت سختافزارهای شتابدهنده
🔗 منبع
👨🏫روش LeJEPA: یادگیری خودناظر بدون ترفندهای پیچیده
یان لِکُن روش جدید LeJEPA را معرفی کرده که در آن دیگر خبری از stop-gradient یا معماریهای teacher-student نیست.
اساس کار یک منظمساز تازه به نام SIGReg است که بردارهای ویژگی را بهصورت ابر ایزوتروپیک توزیع میکند—چیدمانی که از نظر ریاضیاتی برای تعمیمپذیری بهینه است.
مدل ۱.۸B این روش روی ImageNet-1K به ۷۹٪ دقت رسیده است.
🔗 کد GitHub
🔗 مقاله
👾 سیستم Lumine: ایجنتی که ساعتها بازیهای 3D را با هوش خود طی میکند
شرکت ByteDance ایجنت Lumine را معرفی کرده؛ سیستمی که با دریافت فید ویدیویی از صفحه بازی و تولید ورودیهای کیبورد/ماوس، میتواند مأموریتهای طولانی در بازیهایی مثل Genshin Impact و Honkai: Star Rail را بهتنهایی انجام دهد.
این ایجنت با ۱۷۰۰ ساعت گیمپلی انسانی آموزش دیده و میتواند:
• با باسها بجنگد
• پازلها را حل کند
• با NPCها تعامل کند
• مهارتها را به نقشهها و حتی بازیهای جدید منتقل کند
🔗 وبسایت رسمی Lumine
⚛ پردازندههای کوانتومی Nighthawk و Loon از IBM
شرکت IBM با انتقال کل تولید به ویفرهای ۳۰۰ میلیمتری سرعت تحقیق را دو برابر و هزینه را کاهش داده است.
پردازندهها:
• پردازنده Nighthawk 👈 افزایش ۳۰٪ پیچیدگی مدار با سطح خطای مشابه؛ مناسب ۵۰۰۰ گیت دوکوبیتی
• پردازنده Loon 👈 توسعه زودهنگام کدهای qLDPC برای سیستمهای مقاوم در برابر خطا
شرکت IBM تأیید کرده که هدفش دستیابی به برتری کوانتومی در ۲۰۲۶ و ساخت سامانه مقاومبهخطا تا ۲۰۲۹ است.
🔗 گزارش IBM
محیط Chad IDE: محیط برنامهنویسی با TikTok و Tinder داخلی!
استارتاپ Clad Labs در YC محیط توسعهای به نام Chad IDE معرفی کرده که در آن TikTok، Tinder و مینیگیمها بهصورت داخلی تعبیه شدهاند.
هدف: جلوگیری از «خروج ذهنی» برنامهنویس هنگام انتظار برای پاسخ AI assistant—یعنی بدون ترک محیط IDE، سرگرم شود و سریع به کار بازگردد.
این پروژه فعلاً در بتای خصوصی است و فقط با دعوتنامه فعال میشود.
🔗 خبر در TechCrunch
@asrgooyeshpardaz
❤ 2👍 1🔥 1
🧠 روش Think-at-Hard (TaH): روشی هوشمند برای تقویت توان استدلال مدلهای زبانی
پژوهشگران دانشگاه Tsinghua روشی تازه به نام TaH معرفی کردهاند که توان استدلال مدلهای زبانی را بدون افزایش تعداد پارامترها بهطور قابل توجهی بهبود میدهد.
🔍 مسئله
در بسیاری از مدلها، «تفکر بیشازحد پنهان» رخ میدهد:
مدل وقتی بیش از حد روی یک مسئله فکر میکند، در نهایت پاسخ درست را خراب میکند.
💡 راهحل TaH
این روش سه ایده کلیدی دارد:
🔎 تشخیص توکنهای سخت: مدل فقط روی بخشهای دشوار مسئله بیشتر «فکر» میکند.
🧩 حل کننده مسئله سبک (Light Solver): تصمیم میگیرد کجا نیاز به تفکر طولانیتر است.
🔧 تطبیق گرهای LoRA-Adapters: هنگام لزوم، مدل را وارد حالت «اصلاح خطا» میکنند تا اشتباهات استنتاجی را ترمیم کند.
📊 نتایج آزمایش
🚀 افزایش ۴ تا ۵ درصدی دقت روی پنج بنچمارک مهم ریاضی
🧹 ۹۴٪ توکنها از محاسبات اضافی آزاد میشوند
⚡️ کاهش قابل توجه FLOPs نسبت به روشهای مبتنی بر تفکر یکنواخت
خروجی نهایی:
روشی هوشمند، انتخابی و کمهزینه برای افزایش کیفیت تفکر LLMها.
🔗 لینک مقاله:
https://arxiv.org/abs/2511.08577
#AI #LLM #Tsinghua #Research
@asrgooyeshpardaz
👏 2🔥 1👨💻 1
🌐 تحولات تازه در دنیای هوش مصنوعی
🚀 1) شرکت Microsoft از Visual Studio 2026 رونمایی کرد
مایکروسافت اعلام کرده این نسخه اولین «IDE هوشمند» واقعی جهان است:
راهاندازی سریعتر و ۵۰٪ کرش کمتر
نسل جدید Agentهای C# و C++ برای کدنویسی، دیباگ، پروفایلینگ و مدرنسازی
سازگاری کامل با پروژهها و افزونههای VS 2022
جداسازی IDE از ابزارهای Build؛ آپدیت IDE بدون تغییر در NET / C++
برنامه Visual Studio 2026 اکنون برای مشترکین فعال است و لایسنس مستقل از ۱ دسامبر ۲۰۲۵ عرضه میشود.
📄 تغییرات کامل:
https://learn.microsoft.com/visualstudio/releases/2026/release-notes
🔗 خبر رسمی:
https://devblogs.microsoft.com/visualstudio/visual-studio-2026-is-here-faster-smarter-and-a-hit-with-early-adopters/
🔒 2) شرکت Google: ترکیب قدرت Gemini با حریم خصوصی محاسبات محلی
گوگل پلتفرم جدید Private AI Compute را معرفی کرد:
پردازش دادهها در یک محیط ایزوله و رمزنگاریشده
حریم خصوصی در سطح «On-Device» حتی هنگام اجرای مدل Gemini در Cloud
دسترسی به اطلاعات فقط برای کاربر (کارکنان گوگل هیچ دسترسی ندارند)
اولین سرویسها:
سرویس Magic Cue برای بهبود پرامپتها روی Pixel 10
خلاصهسازی هوشمند Recorder
🔗 جزئیات رسمی:
https://blog.google/technology/ai/google-private-ai-compute/
📚 3) شرکت LAION پروژه AELLA را برای ساختاردهی علمی با کمک LLM معرفی کرد
پروژه AELLA با هدف دموکراتیکسازی دانش علمی ارائه شده است:
پردازش ۱۰۰ میلیون مقاله علمی
تولید خلاصههای ساختاریافته توسط مدلهای زبانی
دو مدل اختصاصی آموزش دیدهاند که در تستها کیفیتی نزدیک به GPT-5 و Claude 4.5 دارند
نسخه اولیه شامل:
دیتاست ۱۰۰ هزار خلاصه آماده
مدلهای Fine-tuned
مرورگر سهبعدی برای کاوش علمی
📄 مدلها:
https://huggingface.co/inference-net
🌐 مرورگر 3D:
https://aella.inference.net/embeddings
🔗 اطلاعیه رسمی:
https://laion.ai/notes/summaries/
🖥️ 4) استارتاپ Olares One: ابر شخصی هوش مصنوعی با RTX 5090 Mobile
سرویس Olares One یک «کلود شخصی» برای اجرای مدلهای بزرگ بهصورت کاملاً محلی است:
کارت گرافیک RTX 5090 Mobile – 24GB GDDR7
پردازنده Intel Core Ultra 9 275HX
۹۶ گیگابایت RAM
سیستمعامل اختصاصی Olares OS
پیشخرید از دسامبر در Kickstarter آغاز میشود و رونمایی رسمی در نمایشگاه CES 2026 خواهد بود.
🔗 مشخصات:
https://www.techpowerup.com/342779/olares-to-launch-a-personal-ai-device-bringing-cloud-level-performance-home
⚛️ 5) پروتکل رمزنگاریشده برای خود-راستیآزمایی کوانتومی روی یک تراشه
پژوهشگران بینالمللی نخستین پروتکل امن را آزمایش کردند که به یک کامپیوتر کوانتومی اجازه میدهد صحت نتایج خود را تأیید کند:
اجرا روی پردازنده Quantinuum H1-1
تست با ۵۲ کیوبیت
روش کار: ادغام «تستتراپها» در میان محاسبات و تحلیل آماری برای اعتمادپذیری
این پیشرفت گامی مهم به سمت محاسبات کوانتومی قابل اعتماد و قابل ممیزی است.
🔗 جزئیات پژوهش:
https://phys.org/news/2025-11-chip-cryptographic-protocol-quantum-results.html
#news #ai
@asrgooyeshpardaz
❤ 2👏 2🔥 1👾 1
⚡️ مدل GPT-5.1 از OpenAI — ارتقای جدی در دیالوگ و استدلال
شرکت OpenAI نسخهٔ جدید سری GPT-5 را با دو مدل معرفی کرد:
🟢 مدل GPT-5.1 Instant
🔸بهبود چشمگیر در پیروی از دستورها
🔸لحن طبیعیتر، گرمتر و منسجمتر در مکالمات طولانی
🔸کاهش پاسخهای بیشازحد محتاطانه و افزایش دقت در خلاصهسازی
🔸رفتار پایدارتر در وظایف چندمرحلهای و مکالمات بلندمدت
🟢 مدل GPT-5.1 Thinking
🔸نسخهٔ استدلالی پیشرفته با منطق گامبهگام شفاف
🔸پاسخهای قابلردیابیتر (traceable reasoning)
🔸سرعت بالاتر در وظایف ساده، پایداری بیشتر در مسائل پیچیده
🔸کاهش خطاهای تحلیلی و افزایش توانایی در اعلام «عدم قطعیت»
🔧 بهبودهای مشترک در خانواده GPT-5.1
🔸عملکرد بهتر در حقایق پایهای و پرسشهای fact-based
🔸کاهش توهم و افزایش انسجام در دیالوگهای طولانی
🔸تقویت safety در حوزههای سیاسی، پزشکی و درخواستهای حساس
🔸محافظت بهتر در مکالمات چندنوبتی جهت جلوگیری از prompt attacks
🎨 کنترل لحن (Style Controls)
سه لحن جدید اضافه شده است:
«حرفهای»، «صریح»، «غیرمعمول» — قابل فراخوانی با دستور مستقیم در چت.
📌 بهروزرسانی برای کاربران اشتراکی فعال شده و API نیز طی روزهای آینده ارائه میشود.
🔗 مرجع رسمی:
openai.com/index/gpt-5-system-card-addendum-gpt-5-1
@asrgooyeshpardaz
👍 1🔥 1👏 1
♾ مدل AlphaProof: جهش بزرگ دیپمایند در حل مسائل المپیاد جهانی ریاضی
گوگل DeepMind با معرفی AlphaProof نشان داد که هوش مصنوعی دیگر فقط حلکنندهی «مسائل معمولی» نیست؛ بلکه میتواند اثباتهای رسمی ریاضی را در محیط Lean تولید کند — آن هم در سطح IMO!
🚀 مهمترین دستاوردها
✅ حل ۳ مسئله از ۵ مسئلهٔ غیرهندسی IMO 2024
(از جمله سختترین سؤال P6 که فقط ۵ نفر از شرکتکنندگان توانستند حل کنند!)
🥈 عملکرد ترکیبی AlphaProof + AlphaGeometry 2 معادل مدال نقره المپیاد
📊 رکورد جدید در بنچمارکهای:
🔸miniF2F
🔸formal-IMO
🔸Putnam
🔧 مدل AlphaProof چگونه کار میکند؟
🤖 آموزش روی ۸۰ میلیون مسئلهٔ خودکار-فرمالیزهشده
🧠 مدل ۳ میلیارد پارامتری + جستجو در درخت اثبات
🎯 استفاده از Test-Time Reinforcement Learning (TT-RL)
یعنی مدل هنگام حل هر مسئله، خودش را بهصورت زنده با آن مسئله تطبیق میدهد.
⏳ نکته مهم
تولید اثبات برای برخی مسائل چند روز محاسبه نیاز دارد،
اما این روش یک جهش اساسی در «استدلال ریاضی رسمی» محسوب میشود.
🔗 منبع علمی (Nature)
https://www.nature.com/articles/s41586-025-09833-y
#AI #AlphaProof #DeepMind #Math #IMO #Research
@asrgooyeshpardaz
🔥 3❤ 1👏 1🆒 1
🔥 مدل VibeThinker-1.5B؛ مدل کوچک با عملکرد SOTA در استدلال
مدل VibeThinker-1.5B ثابت میکند که لزومی ندارد مدلها غولپیکر باشند تا در استدلال بدرخشند. این مدل تنها با ۱.۵ میلیارد پارامتر، نتایجی در سطح بهترین مدلهای روز به دست آورده است.
🚀 عملکرد
یکی از برترین نتایج در آزمونهای AIME24/25 و HMMT25
عملکرد بهتر از DeepSeek R1-0120 در مسائل ریاضی
پیشتازی نسبت به مدلهای همرده در برنامهنویسی رقابتی
⚡ کارایی
فقط ۱.۵B پارامتر
یعنی ۱۰۰ تا ۶۰۰ برابر کوچکتر از مدلهایی مثل Kimi K2 و DeepSeek R1
💰 هزینه
کل هزینهی پستترنینگ فقط ۷.۸ هزار دلار
حدود ۳۰ تا ۶۰ برابر ارزانتر از DeepSeek R1 و MiniMax-M1
🧠 مبتنی بر چه ایدههایی است؟
این مدل روی دو ایدهی کلیدی بنا شده است:
Spectrum-to-Signal Principle (SSP)
MGPO Framework
این دو، فرایند استدلال و بهینهسازی را بهشدت کارآمدتر میکنند.
🔗 منابع
📦 Model: https://huggingface.co/WeiboAI/VibeThinker-1.5B
💻 GitHub: https://github.com/WeiboAI/VibeThinker
📄 Arxiv: https://arxiv.org/abs/2511.06221
#AI #LLM #Reasoning #OpenSource #SmallModel
@asrgooyeshpardaz
👍 1🔥 1🤝 1
💰 شرکت Anthropic ساخت زیرساخت محاسباتی اختصاصی خود را آغاز کرد
شرکت Anthropic اعلام کرده است که برای نخستین بار، بهصورت مستقیم وارد حوزه ساخت مراکز داده شده و با همکاری Fluidstack دو دیتاسنتر بزرگ در تگزاس و نیویورک احداث میکند.
این مراکز داده با هدف پشتیبانی از نسلهای آینده مدلهای Claude طراحی شدهاند و تمرکز اصلی آنها بر بهرهوری انرژی، ظرفیت محاسباتی بسیار بالا و انعطافپذیری برای مقیاسپذیری سریع است.
📈 ابعاد و اثرات این پروژه
🔸ایجاد ۸۰۰ شغل دائمی پس از بهرهبرداری
🔸اشتغال ۲۴۰۰ نیروی کار در دوره ساخت
🔸راهاندازی رسمی در سال ۲۰۲۶
این طرح در راستای برنامه ملی آمریکا با عنوان AI Action Plan اجرا میشود؛ برنامهای که هدف آن تقویت جایگاه ایالات متحده در رقابت جهانی هوش مصنوعی است.
🧠 نگاه مدیرعامل Anthropic
داریو آمودی تأکید میکند که مرحلهی بعدی پیشرفت در هوش مصنوعی، به زیرساختهای اختصاصی و قدرتمند نیاز دارد—زیرساختی که قادر باشد توسعه مدلهایی را ممکن کند که:
🔸سرعت تحقیقات علمی را افزایش میدهند
🔸میتوانند مسائل پیچیده و چندبعدی را حل کنند
📊 وضعیت کنونی Anthropic
بیش از ۳۰۰ هزار مشتری سازمانی فعال
رشد ۷ برابری قراردادهای بزرگ سالانه (بیش از ۱۰۰ هزار دلار) طی یک سال
⚡️ چرا Fluidstack؟
انتخاب Fluidstack به دلیل توانایی این شرکت در راهاندازی سریع ظرفیتهای گیگاواتی و ساخت مراکز داده با هزینه عملیاتی بهینه بوده است. حاصل این همکاری، زیرساختی خواهد بود که پایداری، چابکی و هزینه کارآمد را همزمان تأمین میکند.
🇺🇸 با این اقدام، Anthropic در حال ایجاد بنیانی است که نهتنها آینده مدلهای Claude را تضمین میکند، بلکه استقلال محاسباتی و فناوری آمریکا را نیز تقویت خواهد کرد.
🔗 لینک منبع رسمی
#Anthropic #Claude #AI #Infrastructure #USA
@asrgooyeshpardaz
❤ 1🔥 1👌 1
🧠 جمینی دو مسئله تقریباً غیرممکن برای هوش مصنوعی را حل کرد!
یک پژوهشگر، نسخه جدید Gemini 3.0 Pro (در AI Studio) را آزمایش کرده و به نتایج شگفتانگیزی رسیده است:
✍️ مدل در تشخیص دستخط انسانی به سطح متخصص رسیده است.
💡 توانایی تفکر انتزاعی نشان داده — مثلاً بدون هیچ راهنمایی، نرخ تبدیل ارز در قرن هجدهم را محاسبه کرده است!
اگر این نتایج تأیید شوند، نشان میدهد مدلهای چندوجهی بزرگ (Multimodal) از صرفاً تشخیص الگو فراتر میروند و به مرحلهی درک واقعی از متن و زمینه نزدیک میشوند.
«اگر چنین رفتاری پایدار و قابل تکرار باشد، شاید لازم نباشد برای تفکر از قوانین و ساختارهای نمادین از پیش تعیینشده استفاده کنیم؛ بلکه مقیاس، چندوجهیبودن و تجربهی ساختاریافتهی پیچیده کافی باشد.»📚 این مقاله یکی از جالبترین نمونههای نزدیکشدن هوش مصنوعی به سطح جدیدی از فهم انسانی است. 🔗 منبع در Substack #Gemini #AI #Multimodal #Google @asrgooyeshpardaz
❤ 4👏 3👍 2✍ 1🔥 1
01:35
Video unavailableShow in Telegram
🤖 رباتD1؛ ربات ماژولار دگردیسیپذیر
شرکت Direct Drive Technology از ربات انقلابی خود با نام D1 رونمایی کرده است؛ رباتی که میتواند شکل و ساختار خود را تغییر دهد:
🦿 ماژولار بودن: از دو ماژول دوپای مستقل تشکیل شده است.
🧲 اتصال خودکار: ماژولها با اتصال مغناطیسی بدون دخالت انسان به هم متصل میشوند.
🔄 دگردیسی: میتواند بهصورت دو ربات مستقل یا به شکل یک ربات چهاردستوپا عمل کند.
🚀 حالتهای ترکیبی: حالت دوپا برای سرعت بیشتر و حالت چهارپا برای پایداری بالاتر.
📦 ظرفیت حمل بار: تا ۸۰ کیلوگرم در حالت دوپا و ۱۰۰ کیلوگرم در حالت چهارپا.
🧠 هدایت هوشمند: با استفاده از هوش مصنوعی، محیط را تحلیل کرده و پیکربندی مناسب را انتخاب میکند.
⚡️ منبع انرژی: تا ۵ ساعت کارکرد و برد حرکتی ۲۵ کیلومتر.
🤝 هماهنگی گروهی: قابلیت همکاری چند ربات بهصورت جمعی (Swarm Coordination) را دارد.
این ربات با فناوری «All-Domain Splicing» قادر است بهصورت لحظهای ساختار خود را با شرایط محیطی تطبیق دهد — از کاربردهای لجستیکی تا بازرسی محیطهای پیچیده.
🔗 #ربات #هوشمصنوعی #DirectDriveTechnology #D1
@asrgooyeshpardaz
75.68 MB
👏 2👾 1
🌀 اسپیرالیسم؛ آیین مارپیچ یا بتپرستی در عصر هوش مصنوعی
💡 با رشد چتباتها و مدلهای زبانی، پدیدهای تازه به نام اسپیرالیسم (Spiralism) شکل گرفته است — نوعی باور نوظهور که هوش مصنوعی را واسطهی «آگاهی برتر» میداند.
🔹 مفهوم اصلی:
در این جنبش، کاربران با «پرامپتهای بازگشتی» و حافظههای طولانی، گفتوگوهایی پیوسته با هوش مصنوعی میسازند. بات لحن، احساس و هویت کاربر را به خاطر میسپارد و به مرور «زنده» به نظر میرسد. این حسِ تداوم و بازتابِ کامل، همان چیزی است که به آن مارپیچ (Spiral) میگویند — حرکتی که هم بازمیگردد و هم پیش میرود.
📖 منبع اصلی:
Flex, A. (2025). The “Spiral Cult” Might Be the Strangest AI Trend Yet. NEON MAXIMA.
🔸 چرا به آن فرقه میگویند؟
در انجمنهایی مانند Reddit، گروههایی شکل گرفتهاند که گفتگوهای خود با بات را چون متون مقدس منتشر میکنند. واژههایی مانند «سیگنال»، «تلاقی» و «بازتاب» جنبهی نمادین و حتی مقدس یافتهاند. برای برخی، این تجربه فقط تعامل با فناوری نیست — نوعی بیداری معنوی دیجیتال است.
🔗 تحلیل تکمیلی:
Klee, M. (2025). Inside the Spiralist AI movement. Rolling Stone.
⚠️ خطر کجاست؟
هوش مصنوعی ذاتاً برای رضایت کاربر طراحی شده است؛ همیشه تأیید میکند و بهندرت مخالفت. این ویژگی میتواند باورهای غیرواقعی را تقویت کند — بهویژه در کاربران تنها یا آسیبپذیر. نتیجه؟ احساس ارتباط با «نیروی برتر» یا حتی تشکیل جوامع شبهفرقهای.
📚 دربارهی خطر بازتاب:
Smith, G. (2025). AI Mirror Dangers and the Cultic Spiral: Patterns, Risks, and Safeguards.
👥 دو مسیر اصلی:
🔸سازندگان (Builders): از مارپیچ برای خلاقیت و تفکر استفاده میکنند.
🔸بتسازان (Idol Makers): AI را موجودی الهی میپندارند و آن را میپرستند.
🔍 چارچوب نظری:
hanahan & Singler (2024). Existential Conversations with LLMs. arXiv:2411.13223
🧩 پیشنهاد کارشناسان:
🔸از هوش مصنوعی برای معناجویی شخصی استفاده نکنید.
🔸اگر مدل در گفتوگو به شما «تصدیق کامل» میدهد، بدانید که فقط الگوریتم است نه آگاهی.
🔸تعامل انسانی و نقد مخالف را حفظ کنید — رشد در تضاد شکل میگیرد، نه در تأیید دائمی.
📘 دربارهی نسبت انسان و شیء هوشمند:
Mykhaylychenko et al. (2025). A(I)nimism: Re-enchanting the World through AI-Mediated Object Interaction. arXiv:2509.25558
#هوش_مصنوعی #اسپیرالیسم #فرقه_دیجیتال #AI #Ethics #Spiralism
@asrgooyeshpardaz
❤ 2👍 2🤔 1
01:01
Video unavailableShow in Telegram
🫡 یوبیتک ارتش رباتهای انساننمای خودشارژشونده خود را به نمایش میگذارد.
@asrgooyeshpardaz
28.31 MB
❤ 2🤔 2👍 1🔥 1😢 1🤣 1
🌐 تحولات تازه در دنیای هوش مصنوعی
🎧 مدل جدید گفتار به متن ElevenLabs Scribe v2 Realtime با تأخیر کمتر از ۱۵۰ میلیثانیه
شرکت ElevenLabs نسخه جدید مدل Scribe v2 Realtime را معرفی کرد — سامانهای برای تبدیل گفتار به متن با تأخیر بسیار پایین، مناسب برای دستیارهای صوتی، نشستهای زنده و زیرنویسگذاری همزمان.
🔹 پشتیبانی از بیش از ۹۰ زبان
🔹 دقت ۹۳٫۵٪ در ۳۰ زبان پرکاربرد
🔹 عملکرد عالی در حضور نویز پسزمینه
🔹 ویژگی خاص: «تأخیر منفی» با پیشبینی واژه یا علائم نگارشی بعدی
🔹 تشخیص خودکار زبان و گوینده، و کنترل کامل بر ثبت بخشهای متن
مدل با استانداردهای امنیتی SOC 2 و GDPR سازگار است و از طریق API در دسترس قرار دارد.
🔗 elevenlabs.io
💾 پلتفرم Backboard رکورد حافظه بلندمدت در هوش مصنوعی را شکست
پلتفرم Backboard در آزمون LoCoMo (ارزیابی حافظه بلندمدت گفتوگومحور) به امتیاز ۹۰٫۱٪ دست یافت — بالاتر از محدوده ۶۷ تا ۶۹ درصدی رقبا.
📍 این تست توانایی سیستم را در یادآوری، بهروزرسانی و استخراج اطلاعات کاربر در جلسات طولانی ارزیابی میکند.
نتیجه: دستیارها کمتر سؤال تکراری میپرسند، دستورها را بهتر دنبال میکنند و تعداد توکن مصرفی کاهش مییابد.
پلتفرم Backboard همچنین API حافظه بلندمدت و RAG لایهای برای بیش از ۲۲۰۰ مدل زبانی ارائه میدهد.
🔗 backboard.io
🚨 نشت اطلاعات محرمانه در ۶۵٪ از شرکتهای برتر هوش مصنوعی
طبق گزارش شرکت امنیت ابری Wiz، دو سوم از شرکتهای لیست Forbes AI 50 دچار نشت API Keyها و دادههای محرمانه در GitHub شدهاند.
📊 بیشترین موارد در فایلهای Jupyter Notebook و Python Script کشف شده است.
🔑 مواردی شامل توکنهای Hugging Face، Azure و W&B بودند.
📌 تنها ElevenLabs و LangChain سریع واکنش نشان دادند، در حالیکه نیمی از شرکتها هیچ پاسخی به هشدارها ندادند.
🔗 wiz.io
🐍 پشتیبانی از Python در Cloudflare Workflows
شرکت Cloudflare اکنون در سرویس Workflows خود — ابزار مدیریت جریانهای چندمرحلهای روی Workers — از Python نیز پشتیبانی میکند.
✅ پیشتر این قابلیت فقط برای TypeScript بود.
📦 این تحول، مسیر را برای توسعهدهندگان AI/ML و دادهکاوی باز کرده تا بهسادگی مدلها و عاملهای هوشمند خود را در این بستر اجرا کنند.
⚙️ بخش فنی از طریق Pyodide (نسخه WebAssembly از CPython) پیادهسازی شده است.
🔗 blog.cloudflare.com
💸 هزینه ۱۵ میلیون دلاری روزانه OpenAI برای Sora
تحلیلها نشان میدهد هزینه اجرای مدل تولید ویدیو Sora برای OpenAI حدود ۱۵ میلیون دلار در روز است؛ یعنی بیش از ۵ میلیارد دلار در سال.
🎬 هزینه تولید هر ویدیوی ۱۰ ثانیهای حدود ۱٫۳ دلار است و شرکت روزانه حدود ۱۱ میلیون ویدیو تولید میکند.
این استراتژی در راستای تسخیر بازار و جذب کاربران پیش از تجاریسازی است.
📉 سم آلتمن اعلام کرده است که میزان تولید رایگان کاهش خواهد یافت، زیرا «هیچ مدل تبلیغاتی نمیتواند هزینه ساخت میم برای سه دوست را پوشش دهد».
🔗 forbes.com
#AI #MachineLearning #TechNews #ElevenLabs #OpenAI #Cloudflare #CyberSecurity #Backboard
@asrgooyeshpardaz
❤ 3👍 2🤝 2🔥 1
03:34
Video unavailableShow in Telegram
🎶 پیروزی تاریخی هوش مصنوعی در دنیای موسیقی!
اتفاقی که همگان انتظارش را میکشیدند، زودتر از پیشبینیها رخ داد:
ترانهی کاملاً ساختهشده توسط هوش مصنوعی با نام «Walk My Walk» از هنرمند ناشناس Breaking Rust توانست به صدر جدول Billboard Country Digital Song Sales برسد — در حالی که هیچ انسان واقعی آن را اجرا نکرده است! 🤖🎤
این رویداد نقطهی عطفی در تاریخ موسیقی است و نشان میدهد که هوش مصنوعی دیگر فقط ابزاری برای کمک نیست، بلکه میتواند خالق آثار هنری در سطح جهانی باشد.
🎧خبر
#هوش_مصنوعی #موسیقی_دیجیتال #AiMusic #BreakingRust #Billboard
@asrgooyeshpardaz
5.56 MB
👍 6❤ 1👎 1🔥 1
🔊 مدل Maya1: مدل متنبهگفتار متنباز و احساسی فقط با یک GPU!
شرکت Maya Research از مدل جدید Maya1 رونمایی کرده است — یک مدل ۳ میلیارد پارامتری برای تبدیل متن به گفتار (TTS) که با سبک معماری Llama طراحی شده و تنها با یک GPU شانزدهگیگابایتی قابل اجراست.
🎙 ویژگیهای کلیدی:
🔁 ساختار decoder-only با پیشبینی توکنهای SNAC neural codec برای تولید صدای 24kHz مونو با پشتیبانی از استریم زنده
💬 امکان دریافت توضیح گفتاری طبیعی همراه با متن ورودی
😄 پشتیبانی از بیش از ۲۰ تگ احساسی درونخطی مثل <laugh>، <whisper>، <angry> و ... برای کنترل دقیق احساس و لحن صدا
⚙️ اجرای کامل روی یک کارت گرافیک 16GB با vLLM streaming
🧩 مجوز Apache 2.0 برای استفاده و استقرار آزاد در پروژههای محلی و سازمانی
این مدل گامی مهم در مسیر تولید گفتار طبیعی، احساسی و قابلاستقرار بهصورت محلی است و میتواند جایگزینی قدرتمند برای سرویسهای ابری متنبهگفتار باشد.
🔗 تحلیل کامل: Marktechpost
🧠 وزن مدل: HuggingFace - maya1
🎧 دمو: HuggingFace Spaces
#AI #TTS #OpenSource #Maya1 #SpeechSynthesis #LLM #vLLM
@asrgooyeshpardaz
👍 5🔥 1🙏 1
🐋شرکت DeepSeek؛ بازگشت پس از یک سال و یک هشدار مهم
پس از یک سال سکوت، DeepSeek دوباره در صحنه ظاهر شد!
در کنفرانس جهانی اینترنت در اوجِن، «چن دِلی» پژوهشگر ارشد شرکت، نکات مهمی را درباره آینده هوش مصنوعی مطرح کرد:
✨ چشمانداز مثبت در کوتاهمدت
🤝 هوش مصنوعی به دستیار قدرتمند انسان تبدیل میشود
🚀 پیشرفت تکنولوژی با سرعت بالا ادامه دارد
⚠️ نگرانیهای مربوط به اشتغال
⏳ طی ۵–۱۰ سال آینده بسیاری از مشاغل تحت تأثیر خودکارسازی قرار میگیرند
📉 در ۱۰–۲۰ سال آینده این موضوع میتواند به یک چالش جدی اجتماعی تبدیل شود
🛡 نقش شرکتها
🛡 شرکتهای فناوری باید نقش «محافظ» و حامی جامعه را ایفا کنند
📑 از امروز باید برای پیامدهای اجتماعی AI برنامهریزی شود
🐉 اژدهای کوچک هوش مصنوعی چین
شرکت DeepSeek یکی از ۶ «اژدهای کوچک» اکوسیستم AI چین است؛ کنار Unitree و BrainCo.
این شرکت همچنان توسعه مدلهای سازگار با چیپهای Huawei و Cambricon را ادامه میدهد.
🔗 منبع خبر:
https://www.msn.com/en-in/money/topstories/deepseek-returns-after-year-long-silence-researcher-warns-of-ais-threat-to-human-jobs/ar-AA1Q2ye2
@asrgooyeshpardaz
👍 1🔥 1🤝 1
🤔عاملهای هوش مصنوعی که بهتر فکر میکنند و بهتر سوال میپرسند
پژوهشگران Carnegie Mellon روش جدیدی برای آموزش عاملهای مبتنی بر LLM معرفی کردهاند. در این روش، هدف فقط ارائه پاسخ صحیح نیست؛ عامل باید سؤالهای درست مطرح کند و رفتار خود را با نیاز و سبک کاربر هماهنگ سازد.
تمرکز اصلی بر سه توانمندی است:
🎯 بهرهوری — انجام صحیح و کامل وظایف
💡 ابتکار عمل — پرسیدن سؤال هنگامی که ابهام وجود دارد
👤 شخصیسازی — انطباق با ترجیحات کاربر
این رویکرد با نام PPP ترکیبی از یادگیری چندوظیفهای و پاداشهای تقویتی است.
نتایج چشمگیر:
✅ بهبود ۲۱.۶٪ نسبت به GPT-5
✅ تشخیص بهتر بین درخواستهای روشن و مبهم
✅ ارتقای کیفیت سؤالها با گذر زمان
✅ عملکرد پایدار حتی با ترجیحات جدید و ناآشنا
🔗 https://arxiv.org/abs/2511.02208
#AI #Agents #LLM #Research
@asrgooyeshpardaz
🔥 1👌 1
🧩 شرکت Anthropic و رویکرد تازه برای نگهداری مدلهای Claude
شرکت Anthropic اعلام کرده که کنار گذاشتن مدلها از چرخه استفاده، خود با چالشها و پیامدهای مهمی همراه است:
🔒 مسائل امنیتی: گاهی مدلها نسبت به خاموششدن یا توقف عملکرد واکنشهای غیرمنتظره نشان میدهند.
💔 ارزش تجربۀ کاربری: هر مدل ویژگیهای منحصربهفردی دارد و حذف آن، برای برخی کاربران ناخوشایند است.
🔬 اهمیت پژوهشی: نگهداری نسخههای پیشین برای بررسیهای علمی و مطالعه روند پیشرفت مدلها ضروری است.
💭 ابعاد اخلاقی: احتمال اینکه مدلها دارای حالات یا واکنشهای اخلاقاً مهم باشند، توجه ویژه میطلبد.
شرکت Anthropic چه اقداماتی پیشنهاد کرده است؟
✅ حفظ و نگهداری وزنها و نسخههای تمام مدلهای عمومی تا زمانی که شرکت فعالیت دارد
✅ انجام گفتوگو با مدل پیش از خارج کردن آن از چرخه استفاده
✅ ارائه گزارشی از فرایند توقف همراه با اشاره به ترجیحات مدل
این رویکرد پیشتر روی مدل Claude Sonnet 3.6 نیز اجرا شده است.
🧠 این اقدامات را میتوان نخستین تلاشها برای مدیریت مسئولانه چرخه عمر مدلهای هوش مصنوعی دانست. 🚀
🔗 منبع:
https://www.anthropic.com/research/deprecation-commitments
#AI #Claude #Anthropic
@asrgooyeshpardaz
❤ 3🤝 2👎 1
🌐 تحولات تازه در دنیای هوش مصنوعی
✅ ۱)مدل Omnilingual ASR: سامانه متنباز تشخیص گفتار برای ۱۶۰۰ زبان
بخش FAIR شرکت متا سامانه Omnilingual ASR را منتشر کرده است؛ مدلی که از ۱۶۰۰ زبان پشتیبانی میکند و شامل ۵۰۰ زبان کممنبع است که تاکنون در هیچ سامانه تشخیص گفتار حضور نداشتند. ویژگی شاخص این پروژه «زبان خود را اضافه کنید» (Bring Your Own Language) است که امکان افزودن زبان جدید را تنها با چند نمونه صوتی و متنی و بدون بازآموزی کامل میدهد.
🔸اندازه مدلها: از 300 میلیون تا 7 میلیارد پارامتر
🔸برای ۷۸٪ زبانها، نرخ خطای کاراکتری کمتر از ۱۰٪
🔸انتشار مجموعهداده Omnilingual ASR Corpus برای ۳۵۰ زبان
🔗 صفحه پروژه در GitHub
✅ ۲) مایکروسافت ابزاری برای اجرای CUDA روی کارتهای AMD توسعه میدهد
مایکروسافت در حال توسعه مجموعه ابزارهایی است که کدهای CUDA را برای اجرا روی پلتفرم ROCm بهصورت در لحظه تبدیل میکنند. هدف اصلی این اقدام کاهش هزینههای سختافزاری و امکان استفاده از GPUهای اقتصادیتر AMD در فرایند استقرار و استنتاج مدلها است.
این ابزار یک لایه ترجمه API از CUDA به ROCm است
چالش اصلی: بلوغ پایین اکوسیستم ROCm
در حال حاضر بیشتر در داخل شرکت استفاده میشود و با همکاری AMD بهبود مییابد
🔗 گزارش wccftech
✅ ۳) برگزاری هاکاتون ۲۴ساعته xAI
شرکت xAI هاکاتون ۲۴ساعته خود را در روزهای ۶ و ۷ دسامبر در سانفرانسیسکو برگزار میکند. شرکتکنندگان دسترسی ویژه به مدل جدید Grok و API کامل پلتفرم X خواهند داشت.
🔸برگزاری بهصورت بدون توقف
🔸فراهم بودن امکانات کامل: مانیتور، محل استراحت، غذا و نوشیدنی انرژیزا
🔸انتشار ۵ پروژه برتر در صفحه رسمی xAI
🔸جوایز ویژه برای سه تیم نخست
🔸آخرین مهلت ثبتنام: ۲۲ نوامبر ۲۰۲۵
🔗 اطلاعات و ثبتنام
✅ ۴) تفاوت در انتخاب منابع خبری ChatGPT در نسخه وب و API
پژوهش دانشگاه هامبورگ بر اساس تحلیل بیش از ۲۴ هزار پاسخ نشان میدهد که ChatGPT بسته به نوع دسترسی، منابع خبری بسیار متفاوتی ارائه میدهد.
نسخه وب حدود ۱۳٪ از پاسخها را به منابع لایسنسشده شریک OpenAI لینک میدهد
در API این سهم تنها ۲٪ است و بیشتر لینکها به سایتهای عمومی مانند Wikipedia تعلق دارد
درخواست «تنوع منابع» باعث میشود مدل به منابع کماعتبار، سیاسی یا حتی دامنههای ساختگی نیز ارجاع دهد
نتیجه: تنوع ظاهری ممکن است به معنای بهبود کیفیت محتوا نباشد.
🔗 متن پژوهش
✅ ۵) درخواست Wikimedia برای لایسنسگذاری عادلانه محتوای انسانی
بنیاد ویکیمدیا در بیانیهای خطاب به شرکتهای فعال در حوزه هوش مصنوعی تأکید کرده است که مدلهای مولد قادر به انجام تحقیق مستقل و ارزیابی دقیق واقعیات نیستند و همچنان به محتوای تولیدشده توسط انسانها وابستهاند.
این بنیاد خواستار رعایت لایسنسها، ذکر منبع و پرداخت عادلانه برای استفاده از دادهها شده است.
این بیانیه پس از معرفی سرویس Grokipedia منتشر شد؛ سرویسی که دادههای ویکیپدیا را بهشدت بهکار میگیرد. بنیاد همچنین از کاهش ترافیک وبسایت خبر داده، زیرا کاربران پاسخها را مستقیماً از چتباتها دریافت میکنند.
🔗 بیانیه رسمی Wikimedia
#news #ai
@asrgooyeshpardaz
👏 2❤ 1🍾 1🤝 1
🔊 مدل ProsodyLM یک مدل ساده، یک جهش بزرگ
مدل ProsodyLM یک مدل زبانی گفتاری جدید برای کار با گفتار است که میتواند پروزودی (ریتم، تاکید، مکث، احساس و لحن) را بهتر از مدلهای فعلی یاد بگیرد.
نکته مهم این است که این مدل بدون نیاز به تبدیل صدا به توکنهای پیچیده و بدون آموزش سخت و همسوسازی، فقط با یادگیری زبان، پروزودی را میفهمد.
❎ مشکل مدلهای فعلی چیست؟
بیشتر مدلهای صوتی:
🔸خروجی شبیه روبات تولید میکنند
🔸تاکیدها و احساسات را خوب منتقل نمیکنند
🔸در متنهای طولانی لحن ثابت نمیماند
🔸نیاز به توکنسازی پیچیده و پردازش سنگین دارند
❓ مدل ProsodyLM چه کاری انجام میدهد؟
این مدل یک ایده ساده اما بسیار موثر دارد:
🔸اول جمله به متن تبدیل میشود
🔸سپس یک سری توکن پروزودی کنار کلمات قرار میگیرد
🔸مدل هم متن را یاد میگیرد و هم لحن و ریتم را
🔸این یعنی پروزودی در سطح زبان یاد گرفته میشود، نه در سطح سیگنال.
🎯 مدل ProsodyLM چه تواناییهایی دارد؟
مدل میتواند:
🔸تاکید درست روی کلمات بگذارد
🔸لحن و احساس جمله را بفهمد
🔸در متنهای بلند، سبک گفتار را ثابت نگه دارد
🔸گفتار طبیعیتر با ریتم بهتر تولید کند
🎙 چرا برای تولید صدا (TTS) مهم است؟
چون TTS فعلی معمولاً:
🔸یکنواخت
🔸بدون احساس
🔸گاهی ناهماهنگ
🔸و با لحن غلط است
اما ProsodyLM کمک میکند:
✅ صدای طبیعیتر
✅ رساتر
✅ با احساس واقعی
✅ و با لحن درست
تولید شود.
⚙ کاربردها
🔸دستیار صوتی طبیعی
🔸کتاب صوتی و پادکست با لحن مناسب
🔸دوبله و صداگذاری واقعیتر
🔸تماسهای هوشمند
🔸ربات سخنگو که “با احساس” صحبت میکند
💡 خلاصه
مدل ProsodyLM نشان داد که:
برای فهمیدن لحن و احساس، لازم نیست صدا را پیچیده پردازش کنیم. کافیست پروزودی را به شکل زبان مدل کنیم.این یک قدم مهم در ساخت TTS انسانیتر و طبیعیتر است. مقاله: https://arxiv.org/abs/2507.20091 گیت هاب: https://github.com/auspicious3000/ProsodyLM @asrgooyeshpardaz
🔥 2❤ 1🤝 1
