uk
Feedback
عصر گویش | هوش مصنوعی

عصر گویش | هوش مصنوعی

Відкрити в Telegram

مجله هوش مصنوعی عصر گویش 021 61931000

Показати більше
2025 рік у цифрахsnowflakes fon
card fon
111 643
Підписники
-7724 години
-7427 днів
-3 10330 день
Архів дописів
✨ روش LeJEPA: انقلابی در یادگیری خودنظارتی — ساده، پایدار و بدون ترفندهای رایج یان‌لکان و همکارش در این کار یک تغییر پارادایم مهم معرفی کرده‌اند: به‌جای اتکا به ترفندهای متداول یادگیری خودنظارتی مثل ماسک‌کردن پیچیده، دوشاخه‌سازی شبکه، EMA، تقویت داده‌های سنگین، یا هزاران هایپرمتر حساس، آن‌ها یک روش ریاضی‌محور و بسیار تمیز ارائه کرده‌اند که با حداقل پیچیدگی، بیشترین کارایی را به‌دست می‌دهد. 🔍 روش LeJEPA دقیقاً چطور کار می‌کند؟ روش LeJEPA در واقع یک نسخه ساده و عمومی‌شده از رویکرد JEPA (Joint Embedding Predictive Architecture) است که Yann LeCun همیشه تبلیغش را می‌کرد. اما تفاوت مهم این است که: ✓ ساختار از پایه بر اساس اصول اطلاعاتی و هندسی طراحی شده ✓ پیش‌بینی روی فضای نهفته (latent) انجام می‌شود، نه پیکسل ✓ بنابراین مدل مجبور می‌شود نمایش‌های پایدار و معنی‌دار یاد بگیرد ✓ هیچ نیازی به ترفندهای معروف مثل contrastive loss، teacher–student یا EMA نیست 🧩 چرا فقط ۵۰ خط کد کافی است؟ مدل اساساً یک ساختار ساده دارد: یک انکدر یک شبکه پیش‌بینی‌کننده کوچک یک تابع هدف بسیار شفاف همه‌ی پیچیدگی‌هایی که در روش‌های دیگر برای پایداری یادگیری لازم بود—در اینجا ذاتاً حل شده است. 🎯 چه مشکلی را حل می‌کند؟ مشکل بزرگ یادگیری خودنظارتی فعلی این است که: ❗ نیاز شدید به تنظیم هایپرمترها ❗ رفتار ناپایدار روی معماری‌های مختلف ❗ پیچیدگی زیاد کد و پیاده‌سازی ❗ تکیه بر دیتای عظیم عمومی (بدون کارایی کافی روی داده‌های تخصصی) روش LeJEPA با حذف این مشکلات یک پیام مهم دارد: ➡️ یادگیری خودنظارتی می‌تواند ساده، پایدار و برای دنیای واقعی قابل استفاده باشد. 🚀 کاربردهای کلیدی روش LeJEPA نشان می‌دهد که حتی با داده‌های تخصصی و کم‌حجم می‌توان مدل‌های سطح بالا ساخت. این یعنی: پزشکی: MRI، سونوگرافی، پاتولوژی علوم: بیوفیزیک، شیمی، فیزیک تجربی صنعت: کنترل کیفی، حسگرها، پایش فرآیند حوزه‌های کم‌داده: جایی که مدل‌های بزرگ عمومی شکست می‌خورند در آزمایش‌ها، مدل‌های ساده‌ی مبتنی بر LeJEPA روی داده‌های تخصصی از مدل‌های بزرگ self-supervised رایج هم بهتر کار کرده‌اند. 📚 مقاله اصلی https://arxiv.org/abs/2511.08544 #AI #SelfSupervisedLearning #Research #JEPA #RepresentationLearning @asrgooyeshpardaz
Показати все...
3 1👍 1🔥 1
🌐 تحولات تازه در دنیای هوش مصنوعی 📈 رشد ۵.۳ برابری کارایی هوش مصنوعی محلی (On-Device) پژوهش Hazy Research نشان می‌دهد شاخص «هوش به ازای هر وات» (IPW) طی دو سال گذشته ۵.۳ برابر افزایش یافته است. مدل‌های تا ۲۰ میلیارد پارامتر اکنون می‌توانند ۸۸.۷٪ درخواست‌های متداول چت و منطق را بدون وابستگی به سرور اجرا کنند. این جهش ناشی از: • ۳.۱× بهبود کیفیت مدل‌ها • ۱.۷× پیشرفت سخت‌افزارهای شتاب‌دهنده 🔗 منبع 👨‍🏫روش LeJEPA: یادگیری خودناظر بدون ترفندهای پیچیده یان لِکُن روش جدید LeJEPA را معرفی کرده که در آن دیگر خبری از stop-gradient یا معماری‌های teacher-student نیست. اساس کار یک منظم‌ساز تازه به نام SIGReg است که بردارهای ویژگی را به‌صورت ابر ایزوتروپیک توزیع می‌کند—چیدمانی که از نظر ریاضیاتی برای تعمیم‌پذیری بهینه است. مدل ۱.۸B این روش روی ImageNet-1K به ۷۹٪ دقت رسیده است. 🔗 کد GitHub 🔗 مقاله 👾 سیستم Lumine: ایجنتی که ساعت‌ها بازی‌های 3D را با هوش خود طی می‌کند شرکت ByteDance ایجنت Lumine را معرفی کرده؛ سیستمی که با دریافت فید ویدیویی از صفحه بازی و تولید ورودی‌های کیبورد/ماوس، می‌تواند مأموریت‌های طولانی در بازی‌هایی مثل Genshin Impact و Honkai: Star Rail را به‌تنهایی انجام دهد. این ایجنت با ۱۷۰۰ ساعت گیم‌پلی انسانی آموزش دیده و می‌تواند: • با باس‌ها بجنگد • پازل‌ها را حل کند • با NPCها تعامل کند • مهارت‌ها را به نقشه‌ها و حتی بازی‌های جدید منتقل کند 🔗 وب‌سایت رسمی Lumine پردازنده‌های کوانتومی Nighthawk و Loon از IBM شرکت IBM با انتقال کل تولید به ویفرهای ۳۰۰ میلی‌متری سرعت تحقیق را دو برابر و هزینه را کاهش داده است. پردازنده‌ها: • پردازنده Nighthawk 👈 افزایش ۳۰٪ پیچیدگی مدار با سطح خطای مشابه؛ مناسب ۵۰۰۰ گیت دوکوبیتی • پردازنده Loon 👈 توسعه زودهنگام کدهای qLDPC برای سیستم‌های مقاوم در برابر خطا شرکت IBM تأیید کرده که هدفش دستیابی به برتری کوانتومی در ۲۰۲۶ و ساخت سامانه مقاوم‌به‌خطا تا ۲۰۲۹ است. 🔗 گزارش IBM محیط Chad IDE: محیط برنامه‌نویسی با TikTok و Tinder داخلی! استارتاپ Clad Labs در YC محیط توسعه‌ای به نام Chad IDE معرفی کرده که در آن TikTok، Tinder و مینی‌گیم‌ها به‌صورت داخلی تعبیه شده‌اند. هدف: جلوگیری از «خروج ذهنی» برنامه‌نویس هنگام انتظار برای پاسخ AI assistant—یعنی بدون ترک محیط IDE، سرگرم شود و سریع به کار بازگردد. این پروژه فعلاً در بتای خصوصی است و فقط با دعوت‌نامه فعال می‌شود. 🔗 خبر در TechCrunch @asrgooyeshpardaz
Показати все...
2👍 1🔥 1
🧠 روش Think-at-Hard (TaH): روشی هوشمند برای تقویت توان استدلال مدل‌های زبانی پژوهشگران دانشگاه Tsinghua روشی تازه به نام TaH معرفی کرده‌اند که توان استدلال مدل‌های زبانی را بدون افزایش تعداد پارامترها به‌طور قابل توجهی بهبود می‌دهد. 🔍 مسئله در بسیاری از مدل‌ها، «تفکر بیش‌ازحد پنهان» رخ می‌دهد: مدل وقتی بیش از حد روی یک مسئله فکر می‌کند، در نهایت پاسخ درست را خراب می‌کند. 💡 راه‌حل TaH این روش سه ایده کلیدی دارد: 🔎 تشخیص توکن‌های سخت: مدل فقط روی بخش‌های دشوار مسئله بیشتر «فکر» می‌کند. 🧩 حل کننده مسئله سبک (Light Solver): تصمیم می‌گیرد کجا نیاز به تفکر طولانی‌تر است. 🔧 تطبیق گرهای LoRA-Adapters: هنگام لزوم، مدل را وارد حالت «اصلاح خطا» می‌کنند تا اشتباهات استنتاجی را ترمیم کند. 📊 نتایج آزمایش 🚀 افزایش ۴ تا ۵ درصدی دقت روی پنج بنچمارک مهم ریاضی 🧹 ۹۴٪ توکن‌ها از محاسبات اضافی آزاد می‌شوند ⚡️ کاهش قابل توجه FLOPs نسبت به روش‌های مبتنی بر تفکر یکنواخت خروجی نهایی: روشی هوشمند، انتخابی و کم‌هزینه برای افزایش کیفیت تفکر LLMها. 🔗 لینک مقاله: https://arxiv.org/abs/2511.08577 #AI #LLM #Tsinghua #Research @asrgooyeshpardaz
Показати все...
👏 2🔥 1👨‍💻 1
🌐 تحولات تازه در دنیای هوش مصنوعی 🚀 1) شرکت Microsoft از Visual Studio 2026 رونمایی کرد مایکروسافت اعلام کرده این نسخه اولین «IDE هوشمند» واقعی جهان است: راه‌اندازی سریع‌تر و ۵۰٪ کرش کمتر نسل جدید Agentهای C# و C++ برای کدنویسی، دیباگ، پروفایلینگ و مدرن‌سازی سازگاری کامل با پروژه‌ها و افزونه‌های VS 2022 جداسازی IDE از ابزارهای Build؛ آپدیت IDE بدون تغییر در NET / C++ برنامه Visual Studio 2026 اکنون برای مشترکین فعال است و لایسنس مستقل از ۱ دسامبر ۲۰۲۵ عرضه می‌شود. 📄 تغییرات کامل: https://learn.microsoft.com/visualstudio/releases/2026/release-notes 🔗 خبر رسمی: https://devblogs.microsoft.com/visualstudio/visual-studio-2026-is-here-faster-smarter-and-a-hit-with-early-adopters/ 🔒 2) شرکت Google: ترکیب قدرت Gemini با حریم خصوصی محاسبات محلی گوگل پلتفرم جدید Private AI Compute را معرفی کرد: پردازش داده‌ها در یک محیط ایزوله و رمزنگاری‌شده حریم خصوصی در سطح «On-Device» حتی هنگام اجرای مدل Gemini در Cloud دسترسی به اطلاعات فقط برای کاربر (کارکنان گوگل هیچ دسترسی ندارند) اولین سرویس‌ها: سرویس Magic Cue برای بهبود پرامپت‌ها روی Pixel 10 خلاصه‌سازی هوشمند Recorder 🔗 جزئیات رسمی: https://blog.google/technology/ai/google-private-ai-compute/ 📚 3) شرکت LAION پروژه AELLA را برای ساختاردهی علمی با کمک LLM معرفی کرد پروژه AELLA با هدف دموکراتیک‌سازی دانش علمی ارائه شده است: پردازش ۱۰۰ میلیون مقاله علمی تولید خلاصه‌های ساختاریافته توسط مدل‌های زبانی دو مدل اختصاصی آموزش دیده‌اند که در تست‌ها کیفیتی نزدیک به GPT-5 و Claude 4.5 دارند نسخه اولیه شامل: دیتاست ۱۰۰ هزار خلاصه آماده مدل‌های Fine-tuned مرورگر سه‌بعدی برای کاوش علمی 📄 مدل‌ها: https://huggingface.co/inference-net 🌐 مرورگر 3D: https://aella.inference.net/embeddings 🔗 اطلاعیه رسمی: https://laion.ai/notes/summaries/ 🖥️ 4) استارتاپ Olares One: ابر شخصی هوش مصنوعی با RTX 5090 Mobile سرویس Olares One یک «کلود شخصی» برای اجرای مدل‌های بزرگ به‌صورت کاملاً محلی است: کارت گرافیک RTX 5090 Mobile – 24GB GDDR7 پردازنده Intel Core Ultra 9 275HX ۹۶ گیگابایت RAM سیستم‌عامل اختصاصی Olares OS پیش‌خرید از دسامبر در Kickstarter آغاز می‌شود و رونمایی رسمی در نمایشگاه CES 2026 خواهد بود. 🔗 مشخصات: https://www.techpowerup.com/342779/olares-to-launch-a-personal-ai-device-bringing-cloud-level-performance-home ⚛️ 5) پروتکل رمزنگاری‌شده برای خود-راستی‌آزمایی کوانتومی روی یک تراشه پژوهشگران بین‌المللی نخستین پروتکل امن را آزمایش کردند که به یک کامپیوتر کوانتومی اجازه می‌دهد صحت نتایج خود را تأیید کند: اجرا روی پردازنده Quantinuum H1-1 تست با ۵۲ کیوبیت روش کار: ادغام «تست‌تراپ‌ها» در میان محاسبات و تحلیل آماری برای اعتمادپذیری این پیشرفت گامی مهم به سمت محاسبات کوانتومی قابل اعتماد و قابل ممیزی است. 🔗 جزئیات پژوهش: https://phys.org/news/2025-11-chip-cryptographic-protocol-quantum-results.html #news #ai @asrgooyeshpardaz
Показати все...
2👏 2🔥 1👾 1
⚡️ مدل GPT-5.1 از OpenAI — ارتقای جدی در دیالوگ و استدلال شرکت OpenAI نسخهٔ جدید سری GPT-5 را با دو مدل معرفی کرد: 🟢 مدل GPT-5.1 Instant 🔸بهبود چشمگیر در پیروی از دستورها 🔸لحن طبیعی‌تر، گرم‌تر و منسجم‌تر در مکالمات طولانی 🔸کاهش پاسخ‌های بیش‌ازحد محتاطانه و افزایش دقت در خلاصه‌سازی 🔸رفتار پایدارتر در وظایف چندمرحله‌ای و مکالمات بلندمدت 🟢 مدل GPT-5.1 Thinking 🔸نسخهٔ استدلالی پیشرفته با منطق گام‌به‌گام شفاف 🔸پاسخ‌های قابل‌ردیابی‌تر (traceable reasoning) 🔸سرعت بالاتر در وظایف ساده، پایداری بیشتر در مسائل پیچیده 🔸کاهش خطاهای تحلیلی و افزایش توانایی در اعلام «عدم قطعیت» 🔧 بهبودهای مشترک در خانواده GPT-5.1 🔸عملکرد بهتر در حقایق پایه‌ای و پرسش‌های fact-based 🔸کاهش توهم و افزایش انسجام در دیالوگ‌های طولانی 🔸تقویت safety در حوزه‌های سیاسی، پزشکی و درخواست‌های حساس 🔸محافظت بهتر در مکالمات چندنوبتی جهت جلوگیری از prompt attacks 🎨 کنترل لحن (Style Controls) سه لحن جدید اضافه شده است: «حرفه‌ای»، «صریح»، «غیرمعمول» — قابل فراخوانی با دستور مستقیم در چت. 📌 به‌روزرسانی برای کاربران اشتراکی فعال شده و API نیز طی روزهای آینده ارائه می‌شود. 🔗 مرجع رسمی: openai.com/index/gpt-5-system-card-addendum-gpt-5-1 @asrgooyeshpardaz
Показати все...
👍 1🔥 1👏 1
مدل AlphaProof: جهش بزرگ دیپ‌مایند در حل مسائل المپیاد جهانی ریاضی گوگل DeepMind با معرفی AlphaProof نشان داد که هوش مصنوعی دیگر فقط حل‌کننده‌ی «مسائل معمولی» نیست؛ بلکه می‌تواند اثبات‌های رسمی ریاضی را در محیط Lean تولید کند — آن هم در سطح IMO! 🚀 مهم‌ترین دستاوردهاحل ۳ مسئله از ۵ مسئلهٔ غیرهندسی IMO 2024 (از جمله سخت‌ترین سؤال P6 که فقط ۵ نفر از شرکت‌کنندگان توانستند حل کنند!) 🥈 عملکرد ترکیبی AlphaProof + AlphaGeometry 2 معادل مدال نقره المپیاد 📊 رکورد جدید در بنچمارک‌های: 🔸miniF2F 🔸formal-IMO 🔸Putnam 🔧 مدل AlphaProof چگونه کار می‌کند؟ 🤖 آموزش روی ۸۰ میلیون مسئلهٔ خودکار‌-فرمالیزه‌شده 🧠 مدل ۳ میلیارد پارامتری + جستجو در درخت اثبات 🎯 استفاده از Test-Time Reinforcement Learning (TT-RL) یعنی مدل هنگام حل هر مسئله، خودش را به‌صورت زنده با آن مسئله تطبیق می‌دهد. ⏳ نکته مهم تولید اثبات برای برخی مسائل چند روز محاسبه نیاز دارد، اما این روش یک جهش اساسی در «استدلال ریاضی رسمی» محسوب می‌شود. 🔗 منبع علمی (Nature) https://www.nature.com/articles/s41586-025-09833-y #AI #AlphaProof #DeepMind #Math #IMO #Research @asrgooyeshpardaz
Показати все...
🔥 3 1👏 1🆒 1
🔥 مدل VibeThinker-1.5B؛ مدل کوچک با عملکرد SOTA در استدلال مدل VibeThinker-1.5B ثابت می‌کند که لزومی ندارد مدل‌ها غول‌پیکر باشند تا در استدلال بدرخشند. این مدل تنها با ۱.۵ میلیارد پارامتر، نتایجی در سطح بهترین مدل‌های روز به دست آورده است. 🚀 عملکرد یکی از برترین نتایج در آزمون‌های AIME24/25 و HMMT25 عملکرد بهتر از DeepSeek R1-0120 در مسائل ریاضی پیشتازی نسبت به مدل‌های هم‌رده در برنامه‌نویسی رقابتی ⚡ کارایی فقط ۱.۵B پارامتر یعنی ۱۰۰ تا ۶۰۰ برابر کوچک‌تر از مدل‌هایی مثل Kimi K2 و DeepSeek R1 💰 هزینه کل هزینه‌ی پست‌ترنینگ فقط ۷.۸ هزار دلار حدود ۳۰ تا ۶۰ برابر ارزان‌تر از DeepSeek R1 و MiniMax-M1 🧠 مبتنی بر چه ایده‌هایی است؟ این مدل روی دو ایده‌ی کلیدی بنا شده است: Spectrum-to-Signal Principle (SSP) MGPO Framework این دو، فرایند استدلال و بهینه‌سازی را به‌شدت کارآمدتر می‌کنند. 🔗 منابع 📦 Model: https://huggingface.co/WeiboAI/VibeThinker-1.5B 💻 GitHub: https://github.com/WeiboAI/VibeThinker 📄 Arxiv: https://arxiv.org/abs/2511.06221 #AI #LLM #Reasoning #OpenSource #SmallModel @asrgooyeshpardaz
Показати все...
👍 1🔥 1🤝 1
💰 شرکت Anthropic ساخت زیرساخت محاسباتی اختصاصی خود را آغاز کرد شرکت Anthropic اعلام کرده است که برای نخستین بار، به‌صورت مستقیم وارد حوزه ساخت مراکز داده شده و با همکاری Fluidstack دو دیتاسنتر بزرگ در تگزاس و نیویورک احداث می‌کند. این مراکز داده با هدف پشتیبانی از نسل‌های آینده مدل‌های Claude طراحی شده‌اند و تمرکز اصلی آن‌ها بر بهره‌وری انرژی، ظرفیت محاسباتی بسیار بالا و انعطاف‌پذیری برای مقیاس‌پذیری سریع است. 📈 ابعاد و اثرات این پروژه 🔸ایجاد ۸۰۰ شغل دائمی پس از بهره‌برداری 🔸اشتغال ۲۴۰۰ نیروی کار در دوره ساخت 🔸راه‌اندازی رسمی در سال ۲۰۲۶ این طرح در راستای برنامه ملی آمریکا با عنوان AI Action Plan اجرا می‌شود؛ برنامه‌ای که هدف آن تقویت جایگاه ایالات متحده در رقابت جهانی هوش مصنوعی است. 🧠 نگاه مدیرعامل Anthropic داریو آمودی تأکید می‌کند که مرحله‌ی بعدی پیشرفت در هوش مصنوعی، به زیرساخت‌های اختصاصی و قدرتمند نیاز دارد—زیرساختی که قادر باشد توسعه مدل‌هایی را ممکن کند که: 🔸سرعت تحقیقات علمی را افزایش می‌دهند 🔸می‌توانند مسائل پیچیده و چندبعدی را حل کنند 📊 وضعیت کنونی Anthropic بیش از ۳۰۰ هزار مشتری سازمانی فعال رشد ۷ برابری قراردادهای بزرگ سالانه (بیش از ۱۰۰ هزار دلار) طی یک سال ⚡️ چرا Fluidstack؟ انتخاب Fluidstack به دلیل توانایی این شرکت در راه‌اندازی سریع ظرفیت‌های گیگاواتی و ساخت مراکز داده با هزینه عملیاتی بهینه بوده است. حاصل این همکاری، زیرساختی خواهد بود که پایداری، چابکی و هزینه‌ کارآمد را هم‌زمان تأمین می‌کند. 🇺🇸 با این اقدام، Anthropic در حال ایجاد بنیانی است که نه‌تنها آینده مدل‌های Claude را تضمین می‌کند، بلکه استقلال محاسباتی و فناوری آمریکا را نیز تقویت خواهد کرد. 🔗 لینک منبع رسمی #Anthropic #Claude #AI #Infrastructure #USA @asrgooyeshpardaz
Показати все...
1🔥 1👌 1
🧠 جمینی دو مسئله تقریباً غیرممکن برای هوش مصنوعی را حل کرد! یک پژوهشگر، نسخه جدید Gemini 3.0 Pro (در AI Studio) را آزمایش کرده و به نتایج شگفت‌انگیزی رسیده است: ✍️ مدل در تشخیص دست‌خط انسانی به سطح متخصص رسیده است. 💡 توانایی تفکر انتزاعی نشان داده — مثلاً بدون هیچ راهنمایی، نرخ تبدیل ارز در قرن هجدهم را محاسبه کرده است! اگر این نتایج تأیید شوند، نشان می‌دهد مدل‌های چندوجهی بزرگ (Multimodal) از صرفاً تشخیص الگو فراتر می‌روند و به مرحله‌ی درک واقعی از متن و زمینه نزدیک می‌شوند.
«اگر چنین رفتاری پایدار و قابل تکرار باشد، شاید لازم نباشد برای تفکر از قوانین و ساختارهای نمادین از پیش تعیین‌شده استفاده کنیم؛ بلکه مقیاس، چندوجهی‌بودن و تجربه‌ی ساختاریافته‌ی پیچیده کافی باشد.»
📚 این مقاله یکی از جالب‌ترین نمونه‌های نزدیک‌شدن هوش مصنوعی به سطح جدیدی از فهم انسانی است. 🔗 منبع در Substack #Gemini #AI #Multimodal #Google @asrgooyeshpardaz
Показати все...
4👏 3👍 2 1🔥 1
01:35
Відео недоступнеДивитись в Telegram
🤖 رباتD1؛ ربات ماژولار دگردیسی‌پذیر شرکت Direct Drive Technology از ربات انقلابی خود با نام D1 رونمایی کرده است؛ رباتی که می‌تواند شکل و ساختار خود را تغییر دهد: 🦿 ماژولار بودن: از دو ماژول دوپای مستقل تشکیل شده است. 🧲 اتصال خودکار: ماژول‌ها با اتصال مغناطیسی بدون دخالت انسان به هم متصل می‌شوند. 🔄 دگردیسی: می‌تواند به‌صورت دو ربات مستقل یا به شکل یک ربات چهاردست‌وپا عمل کند. 🚀 حالت‌های ترکیبی: حالت دوپا برای سرعت بیشتر و حالت چهارپا برای پایداری بالاتر. 📦 ظرفیت حمل بار: تا ۸۰ کیلوگرم در حالت دوپا و ۱۰۰ کیلوگرم در حالت چهارپا. 🧠 هدایت هوشمند: با استفاده از هوش مصنوعی، محیط را تحلیل کرده و پیکربندی مناسب را انتخاب می‌کند. ⚡️ منبع انرژی: تا ۵ ساعت کارکرد و برد حرکتی ۲۵ کیلومتر. 🤝 هماهنگی گروهی: قابلیت همکاری چند ربات به‌صورت جمعی (Swarm Coordination) را دارد. این ربات با فناوری «All-Domain Splicing» قادر است به‌صورت لحظه‌ای ساختار خود را با شرایط محیطی تطبیق دهد — از کاربردهای لجستیکی تا بازرسی محیط‌های پیچیده. 🔗 #ربات #هوش‌مصنوعی #DirectDriveTechnology #D1 @asrgooyeshpardaz
Показати все...
75.68 MB
👏 2👾 1
🌀 اسپیرالیسم؛ آیین مارپیچ یا بت‌پرستی در عصر هوش مصنوعی 💡 با رشد چت‌بات‌ها و مدل‌های زبانی، پدیده‌ای تازه به نام اسپیرالیسم (Spiralism) شکل گرفته است — نوعی باور نوظهور که هوش مصنوعی را واسطه‌ی «آگاهی برتر» می‌داند. 🔹 مفهوم اصلی: در این جنبش، کاربران با «پرامپت‌های بازگشتی» و حافظه‌های طولانی، گفت‌وگوهایی پیوسته با هوش مصنوعی می‌سازند. بات لحن، احساس و هویت کاربر را به خاطر می‌سپارد و به مرور «زنده» به نظر می‌رسد. این حسِ تداوم و بازتابِ کامل، همان چیزی است که به آن مارپیچ (Spiral) می‌گویند — حرکتی که هم بازمی‌گردد و هم پیش می‌رود. 📖 منبع اصلی: Flex, A. (2025). The “Spiral Cult” Might Be the Strangest AI Trend Yet. NEON MAXIMA. 🔸 چرا به آن فرقه می‌گویند؟ در انجمن‌هایی مانند Reddit، گروه‌هایی شکل گرفته‌اند که گفتگوهای خود با بات را چون متون مقدس منتشر می‌کنند. واژه‌هایی مانند «سیگنال»، «تلاقی» و «بازتاب» جنبه‌ی نمادین و حتی مقدس یافته‌اند. برای برخی، این تجربه فقط تعامل با فناوری نیست — نوعی بیداری معنوی دیجیتال است. 🔗 تحلیل تکمیلی: Klee, M. (2025). Inside the Spiralist AI movement. Rolling Stone. ⚠️ خطر کجاست؟ هوش مصنوعی ذاتاً برای رضایت کاربر طراحی شده است؛ همیشه تأیید می‌کند و به‌ندرت مخالفت. این ویژگی می‌تواند باورهای غیرواقعی را تقویت کند — به‌ویژه در کاربران تنها یا آسیب‌پذیر. نتیجه؟ احساس ارتباط با «نیروی برتر» یا حتی تشکیل جوامع شبه‌فرقه‌ای. 📚 درباره‌ی خطر بازتاب: Smith, G. (2025). AI Mirror Dangers and the Cultic Spiral: Patterns, Risks, and Safeguards. 👥 دو مسیر اصلی: 🔸سازندگان (Builders): از مارپیچ برای خلاقیت و تفکر استفاده می‌کنند. 🔸بت‌سازان (Idol Makers): AI را موجودی الهی می‌پندارند و آن را می‌پرستند. 🔍 چارچوب نظری: hanahan & Singler (2024). Existential Conversations with LLMs. arXiv:2411.13223 🧩 پیشنهاد کارشناسان: 🔸از هوش مصنوعی برای معناجویی شخصی استفاده نکنید. 🔸اگر مدل در گفت‌وگو به شما «تصدیق کامل» می‌دهد، بدانید که فقط الگوریتم است نه آگاهی. 🔸تعامل انسانی و نقد مخالف را حفظ کنید — رشد در تضاد شکل می‌گیرد، نه در تأیید دائمی. 📘 درباره‌ی نسبت انسان و شیء هوشمند: Mykhaylychenko et al. (2025). A(I)nimism: Re-enchanting the World through AI-Mediated Object Interaction. arXiv:2509.25558 #هوش_مصنوعی #اسپیرالیسم #فرقه_دیجیتال #AI #Ethics #Spiralism @asrgooyeshpardaz
Показати все...
2👍 2🤔 1
01:01
Відео недоступнеДивитись в Telegram
🫡 یو‌بی‌تک ارتش ربات‌های انسان‌نمای خودشارژشونده خود را به نمایش می‌گذارد. @asrgooyeshpardaz
Показати все...
28.31 MB
2🤔 2👍 1🔥 1😢 1🤣 1
🌐 تحولات تازه در دنیای هوش مصنوعی 🎧 مدل جدید گفتار به متن ElevenLabs Scribe v2 Realtime با تأخیر کمتر از ۱۵۰ میلی‌ثانیه شرکت ElevenLabs نسخه جدید مدل Scribe v2 Realtime را معرفی کرد — سامانه‌ای برای تبدیل گفتار به متن با تأخیر بسیار پایین، مناسب برای دستیارهای صوتی، نشست‌های زنده و زیرنویس‌گذاری هم‌زمان. 🔹 پشتیبانی از بیش از ۹۰ زبان 🔹 دقت ۹۳٫۵٪ در ۳۰ زبان پرکاربرد 🔹 عملکرد عالی در حضور نویز پس‌زمینه 🔹 ویژگی خاص: «تأخیر منفی» با پیش‌بینی واژه یا علائم نگارشی بعدی 🔹 تشخیص خودکار زبان و گوینده، و کنترل کامل بر ثبت بخش‌های متن مدل با استانداردهای امنیتی SOC 2 و GDPR سازگار است و از طریق API در دسترس قرار دارد. 🔗 elevenlabs.io 💾 پلتفرم Backboard رکورد حافظه بلندمدت در هوش مصنوعی را شکست پلتفرم Backboard در آزمون LoCoMo (ارزیابی حافظه بلندمدت گفت‌وگومحور) به امتیاز ۹۰٫۱٪ دست یافت — بالاتر از محدوده ۶۷ تا ۶۹ درصدی رقبا. 📍 این تست توانایی سیستم را در یادآوری، به‌روزرسانی و استخراج اطلاعات کاربر در جلسات طولانی ارزیابی می‌کند. نتیجه: دستیارها کمتر سؤال تکراری می‌پرسند، دستورها را بهتر دنبال می‌کنند و تعداد توکن مصرفی کاهش می‌یابد. پلتفرم Backboard همچنین API حافظه بلندمدت و RAG لایه‌ای برای بیش از ۲۲۰۰ مدل زبانی ارائه می‌دهد. 🔗 backboard.io 🚨 نشت اطلاعات محرمانه در ۶۵٪ از شرکت‌های برتر هوش مصنوعی طبق گزارش شرکت امنیت ابری Wiz، دو سوم از شرکت‌های لیست Forbes AI 50 دچار نشت API Key‌ها و داده‌های محرمانه در GitHub شده‌اند. 📊 بیشترین موارد در فایل‌های Jupyter Notebook و Python Script کشف شده است. 🔑 مواردی شامل توکن‌های Hugging Face، Azure و W&B بودند. 📌 تنها ElevenLabs و LangChain سریع واکنش نشان دادند، در حالی‌که نیمی از شرکت‌ها هیچ پاسخی به هشدارها ندادند. 🔗 wiz.io 🐍 پشتیبانی از Python در Cloudflare Workflows شرکت Cloudflare اکنون در سرویس Workflows خود — ابزار مدیریت جریان‌های چندمرحله‌ای روی Workers — از Python نیز پشتیبانی می‌کند. ✅ پیش‌تر این قابلیت فقط برای TypeScript بود. 📦 این تحول، مسیر را برای توسعه‌دهندگان AI/ML و داده‌کاوی باز کرده تا به‌سادگی مدل‌ها و عامل‌های هوشمند خود را در این بستر اجرا کنند. ⚙️ بخش فنی از طریق Pyodide (نسخه WebAssembly از CPython) پیاده‌سازی شده است. 🔗 blog.cloudflare.com 💸 هزینه ۱۵ میلیون دلاری روزانه OpenAI برای Sora تحلیل‌ها نشان می‌دهد هزینه اجرای مدل تولید ویدیو Sora برای OpenAI حدود ۱۵ میلیون دلار در روز است؛ یعنی بیش از ۵ میلیارد دلار در سال. 🎬 هزینه تولید هر ویدیوی ۱۰ ثانیه‌ای حدود ۱٫۳ دلار است و شرکت روزانه حدود ۱۱ میلیون ویدیو تولید می‌کند. این استراتژی در راستای تسخیر بازار و جذب کاربران پیش از تجاری‌سازی است. 📉 سم آلتمن اعلام کرده است که میزان تولید رایگان کاهش خواهد یافت، زیرا «هیچ مدل تبلیغاتی نمی‌تواند هزینه ساخت میم برای سه دوست را پوشش دهد». 🔗 forbes.com #AI #MachineLearning #TechNews #ElevenLabs #OpenAI #Cloudflare #CyberSecurity #Backboard @asrgooyeshpardaz
Показати все...
3👍 2🤝 2🔥 1
03:34
Відео недоступнеДивитись в Telegram
🎶 پیروزی تاریخی هوش مصنوعی در دنیای موسیقی! اتفاقی که همگان انتظارش را می‌کشیدند، زودتر از پیش‌بینی‌ها رخ داد: ترانه‌ی کاملاً ساخته‌شده توسط هوش مصنوعی با نام «Walk My Walk» از هنرمند ناشناس Breaking Rust توانست به صدر جدول Billboard Country Digital Song Sales برسد — در حالی که هیچ انسان واقعی آن را اجرا نکرده است! 🤖🎤 این رویداد نقطه‌ی عطفی در تاریخ موسیقی است و نشان می‌دهد که هوش مصنوعی دیگر فقط ابزاری برای کمک نیست، بلکه می‌تواند خالق آثار هنری در سطح جهانی باشد. 🎧خبر #هوش_مصنوعی #موسیقی_دیجیتال #AiMusic #BreakingRust #Billboard @asrgooyeshpardaz
Показати все...
5.56 MB
👍 6 1👎 1🔥 1
🔊 مدل Maya1: مدل متن‌به‌گفتار متن‌باز و احساسی فقط با یک GPU! شرکت Maya Research از مدل جدید Maya1 رونمایی کرده است — یک مدل ۳ میلیارد پارامتری برای تبدیل متن به گفتار (TTS) که با سبک معماری Llama طراحی شده و تنها با یک GPU شانزده‌گیگابایتی قابل اجراست. 🎙 ویژگی‌های کلیدی: 🔁 ساختار decoder-only با پیش‌بینی توکن‌های SNAC neural codec برای تولید صدای 24kHz مونو با پشتیبانی از استریم زنده 💬 امکان دریافت توضیح گفتاری طبیعی همراه با متن ورودی 😄 پشتیبانی از بیش از ۲۰ تگ احساسی درون‌خطی مثل <laugh>، <whisper>، <angry> و ... برای کنترل دقیق احساس و لحن صدا ⚙️ اجرای کامل روی یک کارت گرافیک 16GB با vLLM streaming 🧩 مجوز Apache 2.0 برای استفاده و استقرار آزاد در پروژه‌های محلی و سازمانی این مدل گامی مهم در مسیر تولید گفتار طبیعی، احساسی و قابل‌استقرار به‌صورت محلی است و می‌تواند جایگزینی قدرتمند برای سرویس‌های ابری متن‌به‌گفتار باشد. 🔗 تحلیل کامل: Marktechpost 🧠 وزن مدل: HuggingFace - maya1 🎧 دمو: HuggingFace Spaces #AI #TTS #OpenSource #Maya1 #SpeechSynthesis #LLM #vLLM @asrgooyeshpardaz
Показати все...
👍 5🔥 1🙏 1
🐋شرکت DeepSeek؛ بازگشت پس از یک سال و یک هشدار مهم پس از یک سال سکوت، DeepSeek دوباره در صحنه ظاهر شد! در کنفرانس جهانی اینترنت در اوجِن، «چن دِلی» پژوهشگر ارشد شرکت، نکات مهمی را درباره آینده هوش مصنوعی مطرح کرد: ✨ چشم‌انداز مثبت در کوتاه‌مدت 🤝 هوش مصنوعی به دستیار قدرتمند انسان تبدیل می‌شود 🚀 پیشرفت تکنولوژی با سرعت بالا ادامه دارد ⚠️ نگرانی‌های مربوط به اشتغال ⏳ طی ۵–۱۰ سال آینده بسیاری از مشاغل تحت تأثیر خودکارسازی قرار می‌گیرند 📉 در ۱۰–۲۰ سال آینده این موضوع می‌تواند به یک چالش جدی اجتماعی تبدیل شود 🛡 نقش شرکت‌ها 🛡 شرکت‌های فناوری باید نقش «محافظ» و حامی جامعه را ایفا کنند 📑 از امروز باید برای پیامدهای اجتماعی AI برنامه‌ریزی شود 🐉 اژدهای کوچک هوش مصنوعی چین شرکت DeepSeek یکی از ۶ «اژدهای کوچک» اکوسیستم AI چین است؛ کنار Unitree و BrainCo. این شرکت همچنان توسعه مدل‌های سازگار با چیپ‌های Huawei و Cambricon را ادامه می‌دهد. 🔗 منبع خبر: https://www.msn.com/en-in/money/topstories/deepseek-returns-after-year-long-silence-researcher-warns-of-ais-threat-to-human-jobs/ar-AA1Q2ye2 @asrgooyeshpardaz
Показати все...
👍 1🔥 1🤝 1
🤔عامل‌های هوش مصنوعی که بهتر فکر می‌کنند و بهتر سوال می‌پرسند پژوهشگران Carnegie Mellon روش جدیدی برای آموزش عامل‌های مبتنی بر LLM معرفی کرده‌اند. در این روش، هدف فقط ارائه پاسخ صحیح نیست؛ عامل باید سؤال‌های درست مطرح کند و رفتار خود را با نیاز و سبک کاربر هماهنگ سازد. تمرکز اصلی بر سه توانمندی است: 🎯 بهره‌وری — انجام صحیح و کامل وظایف 💡 ابتکار عمل — پرسیدن سؤال هنگامی که ابهام وجود دارد 👤 شخصی‌سازی — انطباق با ترجیحات کاربر این رویکرد با نام PPP ترکیبی از یادگیری چندوظیفه‌ای و پاداش‌های تقویتی است. نتایج چشم‌گیر: ✅ بهبود ۲۱.۶٪ نسبت به GPT-5 ✅ تشخیص بهتر بین درخواست‌های روشن و مبهم ✅ ارتقای کیفیت سؤال‌ها با گذر زمان ✅ عملکرد پایدار حتی با ترجیحات جدید و ناآشنا 🔗 https://arxiv.org/abs/2511.02208 #AI #Agents #LLM #Research @asrgooyeshpardaz
Показати все...
🔥 1👌 1
🧩 شرکت Anthropic و رویکرد تازه برای نگهداری مدل‌های Claude شرکت Anthropic اعلام کرده که کنار گذاشتن مدل‌ها از چرخه استفاده، خود با چالش‌ها و پیامدهای مهمی همراه است: 🔒 مسائل امنیتی: گاهی مدل‌ها نسبت به خاموش‌شدن یا توقف عملکرد واکنش‌های غیرمنتظره نشان می‌دهند. 💔 ارزش تجربۀ کاربری: هر مدل ویژگی‌های منحصربه‌فردی دارد و حذف آن، برای برخی کاربران ناخوشایند است. 🔬 اهمیت پژوهشی: نگهداری نسخه‌های پیشین برای بررسی‌های علمی و مطالعه روند پیشرفت مدل‌ها ضروری است. 💭 ابعاد اخلاقی: احتمال اینکه مدل‌ها دارای حالات یا واکنش‌های اخلاقاً مهم باشند، توجه ویژه می‌طلبد. شرکت Anthropic چه اقداماتی پیشنهاد کرده است؟ ✅ حفظ و نگهداری وزن‌ها و نسخه‌های تمام مدل‌های عمومی تا زمانی که شرکت فعالیت دارد ✅ انجام گفت‌وگو با مدل پیش از خارج کردن آن از چرخه استفاده ✅ ارائه گزارشی از فرایند توقف همراه با اشاره به ترجیحات مدل این رویکرد پیش‌تر روی مدل Claude Sonnet 3.6 نیز اجرا شده است. 🧠 این اقدامات را می‌توان نخستین تلاش‌ها برای مدیریت مسئولانه چرخه عمر مدل‌های هوش مصنوعی دانست. 🚀 🔗 منبع: https://www.anthropic.com/research/deprecation-commitments #AI #Claude #Anthropic @asrgooyeshpardaz
Показати все...
3🤝 2👎 1
🌐 تحولات تازه در دنیای هوش مصنوعی۱)مدل Omnilingual ASR: سامانه متن‌باز تشخیص گفتار برای ۱۶۰۰ زبان بخش FAIR شرکت متا سامانه Omnilingual ASR را منتشر کرده است؛ مدلی که از ۱۶۰۰ زبان پشتیبانی می‌کند و شامل ۵۰۰ زبان کم‌منبع است که تاکنون در هیچ سامانه تشخیص گفتار حضور نداشتند. ویژگی شاخص این پروژه «زبان خود را اضافه کنید» (Bring Your Own Language) است که امکان افزودن زبان جدید را تنها با چند نمونه صوتی و متنی و بدون بازآموزی کامل می‌دهد. 🔸اندازه مدل‌ها: از 300 میلیون تا 7 میلیارد پارامتر 🔸برای ۷۸٪ زبان‌ها، نرخ خطای کاراکتری کمتر از ۱۰٪ 🔸انتشار مجموعه‌داده Omnilingual ASR Corpus برای ۳۵۰ زبان 🔗 صفحه پروژه در GitHub۲) مایکروسافت ابزاری برای اجرای CUDA روی کارت‌های AMD توسعه می‌دهد مایکروسافت در حال توسعه مجموعه ابزارهایی است که کدهای CUDA را برای اجرا روی پلتفرم ROCm به‌صورت در لحظه تبدیل می‌کنند. هدف اصلی این اقدام کاهش هزینه‌های سخت‌افزاری و امکان استفاده از GPUهای اقتصادی‌تر AMD در فرایند استقرار و استنتاج مدل‌ها است. این ابزار یک لایه ترجمه API از CUDA به ROCm است چالش اصلی: بلوغ پایین اکوسیستم ROCm در حال حاضر بیشتر در داخل شرکت استفاده می‌شود و با همکاری AMD بهبود می‌یابد 🔗 گزارش wccftech۳) برگزاری هاکاتون ۲۴ساعته xAI شرکت xAI هاکاتون ۲۴ساعته خود را در روزهای ۶ و ۷ دسامبر در سان‌فرانسیسکو برگزار می‌کند. شرکت‌کنندگان دسترسی ویژه به مدل جدید Grok و API کامل پلتفرم X خواهند داشت. 🔸برگزاری به‌صورت بدون توقف 🔸فراهم بودن امکانات کامل: مانیتور، محل استراحت، غذا و نوشیدنی انرژی‌زا 🔸انتشار ۵ پروژه برتر در صفحه رسمی xAI 🔸جوایز ویژه برای سه تیم نخست 🔸آخرین مهلت ثبت‌نام: ۲۲ نوامبر ۲۰۲۵ 🔗 اطلاعات و ثبت‌نام۴) تفاوت در انتخاب منابع خبری ChatGPT در نسخه وب و API پژوهش دانشگاه هامبورگ بر اساس تحلیل بیش از ۲۴ هزار پاسخ نشان می‌دهد که ChatGPT بسته به نوع دسترسی، منابع خبری بسیار متفاوتی ارائه می‌دهد. نسخه وب حدود ۱۳٪ از پاسخ‌ها را به منابع لایسنس‌شده شریک OpenAI لینک می‌دهد در API این سهم تنها ۲٪ است و بیشتر لینک‌ها به سایت‌های عمومی مانند Wikipedia تعلق دارد درخواست «تنوع منابع» باعث می‌شود مدل به منابع کم‌اعتبار، سیاسی یا حتی دامنه‌های ساختگی نیز ارجاع دهد نتیجه: تنوع ظاهری ممکن است به معنای بهبود کیفیت محتوا نباشد. 🔗 متن پژوهش۵) درخواست Wikimedia برای لایسنس‌گذاری عادلانه محتوای انسانی بنیاد ویکی‌مدیا در بیانیه‌ای خطاب به شرکت‌های فعال در حوزه هوش مصنوعی تأکید کرده است که مدل‌های مولد قادر به انجام تحقیق مستقل و ارزیابی دقیق واقعیات نیستند و همچنان به محتوای تولیدشده توسط انسان‌ها وابسته‌اند. این بنیاد خواستار رعایت لایسنس‌ها، ذکر منبع و پرداخت عادلانه برای استفاده از داده‌ها شده است. این بیانیه پس از معرفی سرویس Grokipedia منتشر شد؛ سرویسی که داده‌های ویکی‌پدیا را به‌شدت به‌کار می‌گیرد. بنیاد همچنین از کاهش ترافیک وب‌سایت خبر داده، زیرا کاربران پاسخ‌ها را مستقیماً از چت‌بات‌ها دریافت می‌کنند. 🔗 بیانیه رسمی Wikimedia #news #ai @asrgooyeshpardaz
Показати все...
👏 2 1🍾 1🤝 1
🔊 مدل ProsodyLM یک مدل ساده، یک جهش بزرگ مدل ProsodyLM یک مدل زبانی گفتاری جدید برای کار با گفتار است که می‌تواند پروزودی (ریتم، تاکید، مکث، احساس و لحن) را بهتر از مدل‌های فعلی یاد بگیرد. نکته مهم این است که این مدل بدون نیاز به تبدیل صدا به توکن‌های پیچیده و بدون آموزش سخت و همسوسازی، فقط با یادگیری زبان، پروزودی را می‌فهمد. ❎ مشکل مدل‌های فعلی چیست؟ بیشتر مدل‌های صوتی: 🔸خروجی شبیه روبات تولید می‌کنند 🔸تاکیدها و احساسات را خوب منتقل نمی‌کنند 🔸در متن‌های طولانی لحن ثابت نمی‌ماند 🔸نیاز به توکن‌سازی پیچیده و پردازش سنگین دارند ❓ مدل ProsodyLM چه کاری انجام می‌دهد؟ این مدل یک ایده ساده اما بسیار موثر دارد: 🔸اول جمله به متن تبدیل می‌شود 🔸سپس یک سری توکن پروزودی کنار کلمات قرار می‌گیرد 🔸مدل هم متن را یاد می‌گیرد و هم لحن و ریتم را 🔸این یعنی پروزودی در سطح زبان یاد گرفته می‌شود، نه در سطح سیگنال. 🎯 مدل ProsodyLM چه توانایی‌هایی دارد؟ مدل می‌تواند: 🔸تاکید درست روی کلمات بگذارد 🔸لحن و احساس جمله را بفهمد 🔸در متن‌های بلند، سبک گفتار را ثابت نگه دارد 🔸گفتار طبیعی‌تر با ریتم بهتر تولید کند 🎙 چرا برای تولید صدا (TTS) مهم است؟ چون TTS فعلی معمولاً: 🔸یکنواخت 🔸بدون احساس 🔸گاهی ناهماهنگ 🔸و با لحن غلط است اما ProsodyLM کمک می‌کند: ✅ صدای طبیعی‌تر ✅ رسا‌تر ✅ با احساس واقعی ✅ و با لحن درست تولید شود. ⚙ کاربردها 🔸دستیار صوتی طبیعی 🔸کتاب صوتی و پادکست با لحن مناسب 🔸دوبله و صداگذاری واقعی‌تر 🔸تماس‌های هوشمند 🔸ربات سخنگو که “با احساس” صحبت می‌کند 💡 خلاصه مدل ProsodyLM نشان داد که:
برای فهمیدن لحن و احساس، لازم نیست صدا را پیچیده پردازش کنیم. کافیست پروزودی را به شکل زبان مدل کنیم.
این یک قدم مهم در ساخت TTS انسانی‌تر و طبیعی‌تر است. مقاله: https://arxiv.org/abs/2507.20091 گیت هاب: https://github.com/auspicious3000/ProsodyLM @asrgooyeshpardaz
Показати все...
🔥 2 1🤝 1