ru
Feedback
عصر گویش | هوش مصنوعی

عصر گویش | هوش مصنوعی

Открыть в Telegram

مجله هوش مصنوعی عصر گویش 021 61931000

Больше
2025 год в цифрахsnowflakes fon
card fon
111 643
Подписчики
-7724 часа
-7427 дней
-3 10330 день
Архив постов
Фото недоступноПоказать в Telegram
🔰 گوگل یک سند ۵۰ صفحه‌ای جدید منتشر کرده که توضیح می‌دهد چگونه می‌توان AI Agentهایی ساخت که در کاربردهای واقعی عملکرد قابل اتکا و عملی داشته باشند. این راهنما یک مقدمه روشن، ساختارمند و قابل فهم درباره اصول و مبانی سامانه‌های عامل‌محور است. در این سند به موضوعات زیر پرداخته می‌شود: 🔸معماری عامل و اجزای اصلی آن 🔸نقش مدل‌های زبانی بزرگ (LLM) به عنوان «مغز» عامل 🔸شیوه اتصال و استفاده از ابزارها 🔸نحوه هماهنگی و ارکستراسیون چند عامل رویکردهای استقرار (Deploy) و ادغام در محیط واقعی 🔸معیارها و روش‌های ارزیابی عملکرد 🔸چگونگی طراحی عامل‌های خودآموز و تکاملی 🔸معرفی نمونه‌ای از معماری AlphaEvolve 📌 لینک راهنما: https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view #AI #Agents #Google #LLM #MachineLearning #AIResearch @asrgooyeshpardaz
Показать все...
🔥 2👨‍💻 1
Фото недоступноПоказать в Telegram
🔎مدل Upscale-LoRA؛ ابزار قدرتمند برای بازسازی و بهبود کیفیت تصاویر اگر با عکس‌های قدیمی، تار، پر از نویز یا رزولوشن پایین سروکار دارید، مدل Upscale-LoRA می‌تواند آن‌ها را شگفت‌انگیز و زنده کند. این مدل بر پایه Qwen-Image-Edit-2509 ساخته شده و مخصوص ارتقای کیفیت تصاویر طراحی شده است. قابلیت‌هایی که ارائه می‌دهد شامل: ✅ افزایش وضوح و شارپ‌نس ✅ حذف نویز و بهبود شفافیت ✅ بازگردانی جزئیات از دست‌رفته ✅ حذف آرتیفکت‌های JPEG و پاک‌سازی فشرده‌سازی ✅ مناسب برای عکس‌های آرشیوی، اسکرین‌شات‌ها، تصاویر کم‌کیفیت یا کوچک 💡 اگر می‌خواهید عکس‌های قدیمی، تصاویر دوربین‌های قدیمی یا اسنپ‌شات‌های بی‌کیفیت را دوباره قابل استفاده کنید، این مدل یک انتخاب عالی است. 🔗 ‌نسخه مدل در HuggingFace: https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA #Upscaler @asrgooyeshpardaz
Показать все...
👍 2 1👏 1🤓 1
🧠 روش MIRA: وقتی مدل‌ها برای فکر کردن باید «به تصویر نگاه کنند» تحقیق جدید ByteDance یک نکته خیلی مهم را ثابت می‌کند: مدل‌های هوش مصنوعی در بسیاری از مسائل فقط با متن نمی‌توانند درست فکر کنند؛ اما وقتی تصاویر مرحله‌به‌مرحله در اختیارشان قرار بگیرد، ناگهان عملکردشان جهش پیدا می‌کند. 🚀 چه چیزی کشف شد؟ 🔸مدل‌ها در حل مسائل سخت فضایی، هندسی و فیزیکی بد عمل می‌کنند. 🔸حتی بهترین مدل‌ها در حالت مستقیم (بدون کمک) دقتی زیر ۲۰٪ دارند. 🔸اضافه کردن استدلال متنی هم همیشه کمک نمی‌کند. 🔸اما وقتی به مدل «طرح‌ها و Sketch» بدهید: ✅ دقت به‌طور میانگین ۳۳.۷٪ بهتر می‌شود! 🧩 چرا تصویر این‌قدر کمک می‌کند؟ 🔸چون بعضی چیزها را نمی‌شود با کلمه توضیح داد: ⚽️مسیر حرکت یک توپ 🪞زاویه برخورد نور به آینه ℹ️مکعبی که باید چرخانده شود ↙️نیروهایی که به جسم وارد می‌شود برای این‌ها دیدن خیلی مهم‌تر از خواندن است. همان‌طور که ما خودمان هنگام حل مسئله یک نمودار ساده می‌کشیم، مدل‌ها هم با تصویر بهتر فکر می‌کنند. 🔍روش MIRA دقیقاً چه می‌کند؟ این بنچمارک شامل: 🔸۵۴۶ مسئله 🔸۲۰ نوع چالش مختلف و برای هر مسئله سه حالت آزمایش دارد: 🔹پاسخ مستقیم 🔹استدلال با متن 🔹استدلال با طرح‌ها و تصاویر نتیجه؟ 📌 حالت سوم تقریباً همیشه بهترین است. 💡 نتیجه بزرگ برای رسیدن به مدل‌هایی که مثل انسان فکر کنند، باید قدرت تصور بصری را به آن‌ها اضافه کنیم. نسل بعدی هوش مصنوعی فقط حرف نمی‌زند — می‌بیند، ترسیم می‌کند و با تصویر فکر می‌کند. 📰مقاله: https://arxiv.org/abs/2511.02779 @asrgooyeshpardaz
Показать все...
🔥 1
📉 سقوط بزرگ بازار هوش مصنوعی — ۸۰۰ میلیارد دلار در چند روز! بازار سهام شرکت‌های مرتبط با هوش مصنوعی یکی از شدیدترین افت‌های سال‌های اخیر را تجربه کرد. تنها در یک هفته، حدود ۸۰۰ میلیارد دلار از ارزش این شرکت‌ها دود شد و از بین رفت. شاخص Nasdaq نیز حدود ۳٪ افت کرد — نشانه‌ای جدی از اینکه بازار نسبت به سرعت رشد AI دچار تردید شده است. 🔥 چرا چنین سقوط شدیدی رخ داد؟ 1) هزینه‌های سنگین و فزاینده شرکت‌های بزرگ در دوره سه‌ماهه اخیر حدود ۱۱۲ میلیارد دلار در زیرساخت‌های AI سرمایه‌گذاری کرده‌اند، آن هم عمدتاً با تأمین مالی از طریق بدهی. اگر درآمدها هم‌سطح با این هزینه‌ها رشد نکنند، این بدهی تبدیل به فشار سنگینی خواهد شد. 2) نبود خریداران در زمان سقوط سرمایه‌گذاران فردی معمولاً در زمان اصلاح بازار وارد می‌شوند و از ریزش جلوگیری می‌کنند. این بار وارد نشدند و سقوط عمیق‌تر شد. 3) شرایط نامساعد اقتصادی افت اعتماد مصرف‌کننده به پایین‌ترین سطح ۳ سال اخیر نبود داده‌های مهم اقتصادی به مدت ۶ هفته خبرهای تازه از موج جدید تعدیل نیرو همه این موارد فضای بازار را عصبی کرده است. ⚠️ عوامل تشدیدکننده سقوط ✅ هجوم همزمان هِج‌فاندها به سمت فروش خیلی از صندوق‌های بزرگ در یک دسته از سهام AI متمرکز شده بودند. با اولین علامت ریزش، همگی با هم شروع به فروش کردند → ایجاد موج دوم و سوم ریزش. ✅ فروش الگوریتمی با افزایش نوسان، مدل‌های معامله‌گری خودکار شروع به کاهش پوزیشن‌ها می‌کنند — همین موضوع ضربه را سنگین‌تر کرد. 🎯 ضربه اصلی: Nvidia شرکت Nvidia که تنها یک هفته قبل به ارزش ۵ تریلیون دلار رسیده بود، در همین سقوط ۳۵۰ میلیارد دلار از ارزش خود را از دست داد. این نشان می‌دهد وقتی انتظارات بیش از حد بالا باشد، حتی یک نشانه کوچک می‌تواند منجر به سقوط‌های عظیم شود. 🔍 نقاط فشار بازار 🔸 سیاست احتمال وضع محدودیت‌های جدید بر فروش پردازنده‌های Blackwell به چین → کاهش انتظارات از تقاضای آینده. 🔸 رقابت شایعه اینکه مدل Moonshot Kimi K2 با کمتر از ۵ میلیون دلار آموزش داده شده، نگرانی «AGI ارزان» را دوباره زنده کرد. پیش‌تر همین موضوع با DeepSeek باعث شد Nvidia در یک روز ۵۸۹ میلیارد دلار سقوط کند. 🔸 ابهام در تأمین مالی صحبت‌ها درباره پروژه‌های زیرساختی عظیم AI با هزینه‌های ۵۰۰ میلیارد یا حتی ۱.۴ تریلیون دلار سرمایه‌گذاران را به فکر فرو برده: این همه هزینه واقعاً کی قرار است بازگشت داشته باشد؟ 🧭 جمع‌بندی بازار AI همچنان موتور اصلی رشد است، اما برای اولین بار نشانه‌ای جدی از ریسک‌های پنهان دیده می‌شود. وقتی بازار بیش‌ازحد داغ و انتظارات غیرواقعی باشد، کوچک‌ترین شک هم می‌تواند به صدها میلیارد دلار تبدیل شود. 📚 منابع (بر اساس گزارش‌های خبری و تحلیل‌های بازار از رسانه‌های زیر) Financial Times Reuters Business Insider Economic Times Yahoo Finance @asrgooyeshpardaz
Показать все...
8👍 1🔥 1😱 1🤝 1
🔥 گوگل Nested Learning را معرفی کرد — رویکردی نوین در یادگیری مداوم، شبیه مغز انسان گوگل در پژوهش تازهٔ خود، پارادایم جدیدی به نام Nested Learning یا یادگیری تودرتو ارائه کرده است؛ روشی که اجازه می‌دهد مدل‌های هوش مصنوعی دانش جدید را درون ساختار قبلی خود لایه‌بندی کنند، بدون اینکه مهارت‌ها و اطلاعات پیشین را از دست بدهند. ✅ رویکرد Nested Learning چیست؟ در این رویکرد، هر مرحلهٔ جدید آموزش درون لایه‌های قبلی قرار می‌گیرد؛ درست مثل لایه‌گذاری دانش در ذهن انسان. به‌جای بازنویسی یا جایگزینی اطلاعات قبلی، مدل: توانایی‌های گذشته را حفظ می‌کند قابلیت سازگاری با وظایف جدید را به‌دست می‌آورد بهتر تشخیص می‌دهد در چه حالت و چه زمینه‌ای باید پاسخ دهد ✅ چه مزایایی دارد؟ 1) یادگیری بی‌پایان بدون فراموشی مدل می‌تواند به صورت مداوم یاد بگیرد، بدون آنکه دانش قبلی پاک یا تضعیف شود. این یعنی پایان مشکل «فراموشی فاجعه‌بار» در یادگیری ماشینی. 2) فهم عمیق‌تر از بافت و زمینه روش Nested Learning کمک می‌کند مدل بداند در چه وضعیتی قرار دارد — مثلاً آیا در حالت استدلال است؟ خلاصه‌سازی؟ ترجمه؟ این منجر به رفتار هوشمندانه‌تر و سازگارتر می‌شود. 3) نزدیک‌تر شدن به شیوه یادگیری انسان این روش یادگیری را مرحله‌ای، تدریجی و پویا می‌کند — شبیه همان چیزی که در مغز انسان می‌بینیم. 🔗 برای مطالعهٔ کامل در وبلاگ گوگل: (لینک رسمی)… @asrgooyeshpardaz
Показать все...
1🔥 1
🎧🚀 شرکت StepFun AI مدل Step-Audio-EditX را منتشر کرد: نسل جدید و متن‌محور ویرایش صدا با LLM آیا می‌توان ویرایش گفتار را به اندازه‌ی بازنویسی یک جمله، ساده و قابل کنترل کرد؟ پاسخ StepFun AI به این پرسش: بله! 🔬 این شرکت امروز Step-Audio-EditX را معرفی و به‌صورت متن‌باز منتشر کرد؛ مدلی صوتی با ۳ میلیارد پارامتر که ویرایش گفتار را از یک فرآیند پیچیده‌ی پردازش سیگنال، به ویرایش سطح توکن شبیه متن تبدیل می‌کند. 🧠 نوآوری اصلی: تبدیل صدا به توکن‌های قابل فهم توسط LLM این مدل بر پایه‌ی توکنایزر دوکدبوکی Step-Audio ساخته شده است. گفتار به دو جریان اطلاعاتی تبدیل می‌شود: 🔹 جریان زبانی با فرکانس 16.7Hz و کدبوک 1024تایی 🔹 جریان معنایی/احساسی با فرکانس 25Hz و کدبوک 4096تایی این دو جریان با نسبت ۳ به ۲ به‌صورت درهم‌تنیده ترکیب می‌شوند. نتیجه؟ ✅ حفظ لحن، ریتم، احساس و بیان گوینده ✅ امکان ویرایش دقیق بدون از دست‌دادن حالت‌های صوتی طبیعی 🏗️ مدل صوتی LLM-Grade با ۳ میلیارد پارامتر مدل Step-Audio-EditX در واقع یک LLM صوتی است که ابتدا از یک مدل زبانی آغاز شده و سپس با داده‌های ترکیبی آموزش دیده است: 📘 ۵۰٪ داده‌ها 👈 متن خالص 🎧 ۵۰٪ داده‌ها 👈 توکن‌های صوتی دوکدبوکی 🎭 قالب محاوره‌ای و چت‌محور این مدل می‌تواند: ✅ ورودی متن بگیرد ✅ ورودی صوتی (توکن) بگیرد ✅ یا ترکیبی از هر دو اما همیشه خروجی را به‌صورت توکن‌های صوتی دوکدبوکی تولید می‌کند — یعنی آماده‌ی بازسازی گفتار. 🎨 نتیجه: ویرایش گفتار مثل ویرایش متن! با Step-Audio-EditX می‌توان: ✏️ لحن را تغییر داد ✏️ کلمات را جایگزین کرد ✏️ مکث‌ها، احساسات و آهنگ گفتار را اصلاح کرد ✏️ نسخه‌های تکراری و اصلاح‌شده تولید کرد همه این‌ها با همان سهولت کار با متن. 📂 منابع و لینک‌ها 🔗 تحلیل کامل: https://www.marktechpost.com/2025/11/09/stepfun-ai-releases-step-audio-editx-a-new-open-source-3b-llm-grade-audio-editing-model-excelling-at-expressive-and-iterative-audio-editing/ 📄 مقاله پژوهشی: https://arxiv.org/abs/2511.03601 💻 مخزن گیت‌هاب: https://github.com/stepfun-ai/Step-Audio-EditX?tab=readme-ov-file 🧩 وزن مدل در هاجینگ‌فیس: https://huggingface.co/stepfun-ai/Step-Audio-EditX اگر می‌خواهید ویرایش صوت را به سطح جدیدی از دقت، کنترل و خلاقیت ببرید، این مدل یک نقطه‌عطف مهم در آینده‌ی ابزارهای صوتی هوشمند است. @asrgooyeshpardaz
Показать все...
3🔥 1👏 1👌 1
⚡️ انتشار مدل جدید GPT-5-Codex-Mini توسط OpenAI شرکت OpenAI نسخه‌ای جدید و سبک‌تر از مدل پرچم‌دار خود در حوزه برنامه‌نویسی، یعنی GPT-5-Codex را معرفی کرده است. این نسخه با نام GPT-5-Codex-Mini شناخته می‌شود و هدف آن ارائه‌ی عملکرد مشابه در کنار کاهش چشمگیر هزینه‌های محاسباتی است. ⚙️ ویژگی‌های کلیدی: بهره‌وری چهار برابر بالاتر در مقایسه با نسخه‌ی کامل GPT-5-Codex؛ یعنی اجرای آن بسیار ارزان‌تر و سریع‌تر است. افت عملکرد بسیار جزئی: در آزمون معیار SWE-bench Verified، نسخه‌ی Mini امتیاز ٪71.3 کسب کرده است، در حالی‌که نسخه‌ی کامل Codex امتیاز ٪74.5 دارد. → تفاوت تنها ۳.۲ درصد است و در بیشتر کاربردهای عملی محسوس نخواهد بود. 🧠 موارد استفاده پیشنهادی: انجام کارهای تکراری در محیط‌های توسعه (IDE) تولید خودکار کدهای اولیه (Boilerplate)، تست‌های واحد، فایل‌های Docker و YAML صرفه‌جویی در مصرف توکن‌ها یا منابع GPU در زمان نزدیک شدن به محدودیت‌ها نمونه‌سازی سریع، تولید خودکار کد و پشتیبانی از توسعه‌دهندگان در محیط‌هایی مانند Cursor، VS Code، JetBrains و ابزارهای مشابه Copilot 🚀 دسترسی و یکپارچه‌سازی: مدل هم‌اکنون از طریق CLI و افزونه IDE رسمی OpenAI در دسترس است. پشتیبانی API نیز به‌زودی فعال خواهد شد. در صورتی که کاربر به ۹۰٪ از سقف استفاده از Codex برسد، سیستم به‌صورت خودکار پیشنهاد می‌دهد که به نسخه‌ی Mini منتقل شود تا کار بدون توقف ادامه یابد. 💡 جمع‌بندی: مدل GPT-5-Codex-Mini گامی هوشمندانه از سوی OpenAI است برای
کاهش هزینه‌ها بدون افت محسوس در کیفیت تولید کد.
این نسخه به‌ویژه برای کاربردهای روزمره، خطوط CI/CD، تولید خودکار کد و آموزش مدل‌های عامل‌محور (Generative Agents) بسیار مناسب است. @asrgooyeshpardaz
Показать все...
2🤝 2👎 1🤓 1
🌐 تحولات تازه در دنیای هوش مصنوعی 🚀 پولاریس آلفا (Polaris Alpha)؛ احتمالاً نسخه آزمایشی GPT-5.1 مدلی جدید بدون هیچ اعلام رسمی در پلتفرم OpenRouter در دسترس قرار گرفته که بسیاری آن را نسخه آزمایشی GPT-5.1 از OpenAI می‌دانند. 🔹 دارای پنجره متنی تا ۲۵۶ هزار توکن 🔹 تمرکز بر تولید کد و اجرای دستورهای پیچیده 🔹 در ارزیابی EQ-Bench عملکردی هم‌تراز با Claude-3.5-Sonnet دارد کاربران از دقت بالا و حداقل توهمات زبانی خبر داده‌اند. دسترسی رایگان از طریق وب و API ممکن است. 🌐 openrouter.ai/openrouter/polaris-alpha 🌍 مایکروسافت و ایده‌ی «فراهوش انسانی» (Humanist Superintelligence) مصطفی سلیمان، مدیرعامل Microsoft AI، از طرحی با عنوان «فراهوش انسانی» (HSI) رونمایی کرده است — مفهومی متفاوت از AGI. در این رویکرد، هدف ساخت سیستم‌های هوشمند کنترل‌پذیر و کاربردی برای حل مسائل واقعی بشر است، نه رقابت در ساخت ابرهوش خودمختار. 🎯 تمرکز HSI: کشف راهکارهای نو در پزشکی انرژی پاک دستیارهای شخصی انسان‌محور 🔗 microsoft.ai/news/towards-humanist-superintelligence ⚙️ گوگل منتشر کرد: Magika 1.0 برای تشخیص نوع فایل با هوش مصنوعی گوگل نسخه پایدار ابزار Magika 1.0 را منتشر کرد — ابزاری متن‌باز بازنویسی‌شده با Rust برای شناسایی خودکار نوع فایل‌ها. ویژگی‌ها: پشتیبانی از بیش از ۲۰۰ نوع فایل (از جمله Jupyter، PyTorch، Dockerfile) استفاده از ONNX Runtime برای استنتاج سریع پردازش صدها فایل در ثانیه روی یک هسته CPU کتابخانه‌های جدید برای Python و TypeScript 🔗 opensource.googleblog.com 🤖 فاکس‌کان (Foxconn) از ربات‌های انسان‌نما در مونتاژ سرورهای هوش مصنوعی استفاده می‌کند غول سخت‌افزاری تایوانی طی ۶ ماه آینده در کارخانه خود در تگزاس ربات‌های انسان‌نما را برای مونتاژ سرورهای AI به کار می‌گیرد. این نخستین استفاده گسترده از ربات‌های انسان‌نما در تاریخ ۵۰ ساله شرکت است. 🎯 هدف: افزایش بهره‌وری و تسریع تولید برای مشتریان کلیدی مانند NVIDIA 🔗 asia.nikkei.com 🔥 سومیت چینتالا (Soumith Chintala)؛ خالق PyTorch، متا را ترک می‌کند پس از ۱۱ سال فعالیت در شرکت مارک زاکربرگ، سومیت چینتالا، یکی از بنیان‌گذاران PyTorch، اعلام کرد در ۱۷ نوامبر شرکت را ترک می‌کند. او می‌گوید PyTorch به بلوغ و پایداری کامل رسیده و اکنون زمان تجربه‌های جدید است. در حال حاضر، PyTorch بیش از ۹۰٪ از بازار توسعه مدل‌های AI را در اختیار دارد. 🔗 پست رسمی در X #خبر_هوش_مصنوعی #GPT5 #PolarisAlpha #مایکروسافت #HSI #Magika #گوگل #PyTorch #فاکسکان #ربات_انسان_نما #AI #ML @asrgooyeshpardaz
Показать все...
4🔥 1👏 1😎 1
🧞‍♂ روز بعد از تولد هوش مصنوعی عمومی (AGI) 📖 بر اساس تحلیل لویی روزنبرگ در BigThink 🔹 بحران اصلی AGI شغل نیست، هویت است. وقتی درباره هوش مصنوعی عمومی حرف می‌زنیم، ذهن‌مان معمولاً می‌ره سمت از دست رفتن شغل‌ها یا فیک‌نیوز. اما روزنبرگ می‌گه مسئله بزرگ‌تر، درون ماست: این‌که وقتی «هوشمندترین موجود در اتاق» دیگه انسان نباشه، ما خودمون رو چطور تعریف می‌کنیم؟ 📱 وقتی گوشی از ما باهوش‌تر بشه... او می‌پرسه: وقتی تنها توی آسانسور باشی، تو و گوشیت، و گوشیت باهوش‌تر از تو باشه، حسِ تو به خودت چی میشه؟ این یه پرسش ساده نیست؛ شروع یه بحران شناختیه. به‌زودی صدای درون‌مون جای خودش رو به صدای بیرونی از هدفون، عینک یا گردنبند هوشمند می‌ده. 🤖 دستیاران هوشمند آینده فقط ابزار نیستند اون‌ها ما رو «می‌بینن»، «می‌شنون» و قبل از اینکه بفهمیم چی می‌خوایم، پیشنهاد می‌دن. دیگه صرفاً کمکی نیستن — شریکی هستن در تصمیم‌گیری، حتی در عشق و احساس. وقتی کسی به ما هدیه می‌ده، آیا انتخاب خودش بوده؟ یا هوش مصنوعی‌اش انتخاب کرده؟ ⚖️ مرز باریک توانمندسازی و تضعیف انسان فناوری می‌تونه ما رو قوی‌تر کنه؛ اما اگه همه تصمیم‌هامون رو بسپریم به ماشین، حس عاملیت‌مون رو از دست می‌دیم. اون روز، انسان ممکنه هنوز زنده باشه — اما شاید دیگه مرکز آگاهی نباشه. 🔍 دعوت به بازاندیشی روزنبرگ می‌گه: پیش از اینکه AGI از ما جلو بزنه، باید به «روز بعدش» فکر کنیم. به این‌که چطور می‌تونیم فناوری بسازیم که در خدمت انسان بمونه، نه جایگزین او. 📚 برای پژوهشگران و طراحان عامل‌های هوشمند، این مقاله یادآور یه نکته مهمه: هدف فقط ساختن ذهنی برتر نیست — باید بدونیم با اون ذهن چطور زندگی می‌کنیم. #هوش_مصنوعی #AGI #فلسفه_تکنولوژی #آینده_انسان #GenerativeAgents #هوش_عمومی
Показать все...
👍 3👎 2🎉 1
🧠 چارچوب تازه برای ارزیابی گفتار نقش‌آفرینانه: Speech-DRAME پژوهشگران دانشگاه کارنگی ملون و تنسنت با همکاری شینجی واتانابه، چارچوبی نو با نام Speech-DRAME معرفی کرده‌اند؛ سامانه‌ای که همان کاری را برای گفتار انجام می‌دهد که HELM و MT-Bench برای مدل‌های متنی انجام دادند — یعنی ایجاد معیاری انسان‌محور و بازتولیدپذیر برای سنجش کیفیت گفتارهای نقش‌آفرین (Speech Role-Play). 🎯 ایده اصلی ارزیابی سامانه‌های گفتاری نباید فقط بر پایه‌ی متن و دقت بازشناسی گفتار (ASR) انجام شود. مدل‌های داور فعلی، با اتکا بر معیارهای ارزیابی مانند WER، ظرافت‌هایی مانند لحن، احساس، آهنگ و هم‌خوانی نقش را درک نمی‌کنند. چارچوب Speech-DRAME برای حل این مشکل، سه مؤلفه‌ی کلیدی ارائه کرده است: داده، مدل و بستر ارزیابی. 📚 ۱. مجموعه داده دو‌زبانه (Speech-DRAME-EvalBench) این مجموعه شامل گفت‌وگوهای نقش‌آفرینانه‌ی واقعی به دو زبان انگلیسی و چینی است که توسط انسان ارزیابی شده‌اند. معیارهایی چون «واقع‌نمایی نقش»، «بیان احساسی» و «تناسب گفتار» در آن لحاظ شده است. این داده‌ها مبنای آموزش مدل‌های ارزیابی گفتار (Speech Evaluation Models) قرار می‌گیرند. 🤖 ۲. مدل ارزیابی DRAME-Eval این مدل به‌صورت تنظیمی (Fine-tuned) آموزش دیده تا بتواند مانند داور انسانی، کیفیت گفتار را بسنجند. نتایج نشان می‌دهد همبستگی آن با ارزیابی انسانی از حدود ۰٫۴۸ به ۰٫۶۳ در «ارزیابی نقش‌نمونه‌ای» و از ۰٫۳۹ به ۰٫۶۳ در «ارزیابی واقع‌گرایانه» افزایش یافته است — جهشی چشمگیر در هم‌خوانی با درک انسان. 🎭 ۳. بستر مقایسه‌ای (Speech-DRAME-RoleBench) در این بستر، مدل DRAME-Eval نقش داور خودکار را ایفا می‌کند تا بتوان عملکرد مدل‌های بنیادی گفتار (Speech Foundation Models) مانند VALL-E-X، CosyVoice و GPT-4o-audio را در سناریوهای واقعی گفتار نقش‌آفرین (Speech Role-Play) مقایسه کرد. 🔍 دو شیوه ارزیابی 1️⃣ ارزیابی نقش‌نمونه‌ای (Archetype Evaluation): سنجش میزان انطباق گفتار با نقش‌های عمومی مانند «پزشک»، «معلم» یا «دوست». 2️⃣ ارزیابی واقع‌گرایانه (Realism Evaluation): بررسی طبیعی بودن، خودانگیختگی و ظرافت احساسی بر پایه‌ی گفتارهای انسانی واقعی. ⚙️ ویژگی‌های فنی برجسته 🔸ارزیابی مستقیم سیگنال صوتی بدون اتکا به متن. 🔸استفاده از ویژگی‌های فرازبانی مانند زیر و بمی، شدت و آهنگ گفتار. 🔸آموزش دو‌زبانه برای درک تفاوت‌های فرهنگی در بیان احساس. 🔸انتشار عمومی داده، کد و دستورالعمل برای بازتولید نتایج. 💡 اهمیت پژوهش چارچوب Speech-DRAME گامی بزرگ به سوی ارزیابی واقع‌گرایانه و انسان‌محور در مدل‌های گفتاری است. با گسترش مدل‌هایی چون GPT-4o، WhisperSpeech و Qwen-Audio-VL، اهمیت چنین چارچوب‌هایی دوچندان می‌شود. در حقیقت، این پژوهش ما را از سنجش درستی زبانی به‌سوی سنجش کیفیت ارتباط انسانی سوق می‌دهد — یعنی اینکه هوش مصنوعی فقط چه می‌گوید مهم نیست، بلکه چگونه می‌گوید نیز معیار سنجش خواهد بود. 📎 مشاهده کد و داده در GitHub 📄 مطالعه مقاله در arXiv #SpeechDRAME #AI #Speech #Evaluation #RolePlay #Multimodal #LLM #VoiceAI @asrgooyeshpardaz
Показать все...
2 1🔥 1
📢 دانشگاه کارنگی ملون و مفهوم تازه در تربیت عامل‌های هوشمند: «عامل‌های فعال و شخصی‌سازی‌شده» محققان دانشگاه Carnegie Mellon با انتشار پژوهشی با عنوان «Training Proactive and Personalized LLM Agents» گامی تازه در تربیت عامل‌های زبانی برداشتند؛ معرفی چارچوب جدیدی که تمرکز آن دیگر صرفاً «انجام وظیفه» نیست، بلکه «تعامل مؤثر با انسان» است. 🔹 در این مدل، عامل هوشمند سه ویژگی کلیدی را هم‌زمان می‌آموزد: ۱. بهره‌وری (Productivity) — توانایی انجام درست وظیفه ۲. پیش‌دستی (Proactivity) — طرح پرسش‌های روشن‌ساز در مواجهه با ابهام ۳. شخصی‌سازی (Personalization) — تطبیق لحن، سبک و طول پاسخ با سلیقهٔ کاربر برای آموزش چنین عاملی، محیطی نو به نام UserVille طراحی شده است؛ جهانی شبیه‌سازی‌شده که در آن «کاربران مصنوعی» با شخصیت‌ها و ترجیحات متفاوت حضور دارند. عامل در این محیط می‌آموزد که چگونه با کاربران مختلف گفتگو کند، فقط زمانی سؤال بپرسد که لازم است و لحن خود را با ویژگی‌های مخاطب هماهنگ سازد. 📊 نتایج شگفت‌انگیز بوده است: عامل‌های آموزش‌دیده با چارچوب جدید PPP (Productive, Proactive, Personalized) نسبت به مدل‌های پایه مانند GPT-5 تا ۲۱٫۶٪ عملکرد بهتر در تعاملات واقعی و مسائل پیچیده‌ی پژوهشی و مهندسی نرم‌افزار نشان دادند. این پژوهش نشان می‌دهد آیندهٔ عامل‌های هوشمند نه در «خودکارسازی صرف»، بلکه در «تعامل انسانی‌تر» نهفته است — جایی که هوش مصنوعی می‌پرسد، درک می‌کند و خود را با انسان سازگار می‌کند. 🔗 arxiv.org/abs/2511.02208v1 📍 Carnegie Mellon University, 2025 #هوش_مصنوعی #عامل_هوشمند #کارنگی_ملون #AgenticAI #Personalization #ProactiveAI #LLMAgents #UserVille #ReinforcementLearning #هوش_تعاملی
Показать все...
🔥 1👌 1
🧠✨ یادگیری تو در تو (Nested Learning): پارادایمی نو برای یادگیری مداوم در هوش مصنوعی پژوهشگران گوگل در تازه‌ترین دستاورد خود، چارچوبی با نام Nested Learning (NL) معرفی کرده‌اند؛ رویکردی که می‌تواند بنیان یادگیری عمیق را دگرگون کند. در این روش، مدل به‌جای انباشتی از لایه‌ها، همچون مجموعه‌ای از مسائل بهینه‌سازی تو در تو طراحی می‌شود — ساختاری که به مغز انسان شباهت بیشتری دارد. 🔹 درک نو از یادگیری: در رویکردهای سنتی، همه‌ی لایه‌های شبکه در یک زمان و با یک نرخ یادگیری به‌روزرسانی می‌شوند. اما در یادگیری تو در تو، هر بخش از مدل دارای فرکانس یادگیری متفاوتی است؛ برخی سریع‌تر و موقتی‌تر (مشابه حافظه‌ی کوتاه‌مدت) و برخی کندتر اما پایدارتر (مانند حافظه‌ی بلندمدت). 🔹 ماژول Hope: در قلب این معماری، ماژولی به نام Hope (Hierarchically Optimized Persistent Encoder) قرار دارد که نه‌تنها وزن‌های مدل را به‌روزرسانی می‌کند، بلکه در صورت نیاز ساختار درونی خود را نیز تغییر می‌دهد. این یعنی گذر از یادگیری صرفاً پارامتری به سوی یادگیری ساختاری و خودانطباق. 🔹 دستاوردها: ماژول Hope در آزمایش‌های گوگل توانست در وظایف زبانی و منطقی از مدل‌های پیشرفته‌ی Transformer و RNN عملکرد بهتری نشان دهد و به دقت ۵۷٫۲۳ درصدی دست یابد. 🔹 چرا مهم است؟ معماری Nested Learning می‌تواند مسیر توسعه‌ی نسل تازه‌ای از مدل‌ها را هموار کند؛ مدل‌هایی که همانند مغز انسان، به‌صورت مداوم، تدریجی و بدون بازآموزی کامل یاد می‌گیرند و تکامل می‌یابند. 🔗 منبع: Google Research Blog #هوش_مصنوعی #گوگل #یادگیری_عمیق #پژوهش #یادگیری_پیوسته #DeepLearning @asrgooyeshpardaz
Показать все...
2🔥 1🤝 1
🎬 معرفی مستند «مدهوش» | آیا هوش مصنوعی می‌تواند به آگاهی برسد؟ مستند «مدهوش» سفری فکری و فلسفی به یکی از بنیادی‌ترین پرسش‌های عصر هوش مصنوعی است: 🧠 آیا ممکن است ماشین‌ها روزی به آگاهی برسند؟ برای یافتن پاسخ، سید یحیی طباطبایی همراه با تیم مستندسازی خودش به نمایشگاه بین‌المللی GITEX سفر کرده‌اند؛ جایی که اندیشمندان و متخصصان برجسته فناوری از سراسر جهان گرد هم می‌آیند تا درباره آینده انسان و ماشین گفت‌وگو کنند. در این مستند، علاوه بر بررسی مسیر تاریخی هوش مصنوعی — از نخستین روزهای الگوریتم‌ها تا دوران یادگیری ماشین — به چالش‌های فلسفی و اخلاقی نیز پرداخته می‌شود: از «قوانین رباتیک آسیموف» و مسئله «ماشین‌های خودران» تا پرسش‌های ژرف‌تری چون «تست تورینگ» و «آزمایش اتاق چینی». 🎙 تیم تولید: راوی: سید یحیی طباطبایی نویسنده: عرفان قاسمی تهیه‌کنندگان: علی افضلی، عرشیا مهدوی تدوین: محسن گودرزی، محمد بنائی تصویرسازی هوش مصنوعی: علیرضا اخوان، پارسا خدیش مشاور پروژه: صدرا علی‌بک با همکاری مؤسسه فلسفه و علوم بنیادی (IPFS) 📺 تماشای کامل مستند در کانال یوتیوب «مجله خلقت» 🌐 درباره سازنده: سید یحیی طباطبایی، پژوهشگر و راوی محتوای علمی، بنیان‌گذار «مجله خلقت» — رسانه‌ای برای ترویج علم و فناوری در ایران www.khelghatmag.com/about 💬 اگر دغدغه آگاهی مصنوعی، اخلاق رباتیک و آینده تعامل انسان و ماشین را دارید، دیدن این مستند را از دست ندهید. پیشنهاد ویژه «عصر گویش‌پرداز» برای علاقه‌مندان به هوش مصنوعی، فلسفه ذهن و آینده انسان دیجیتال. @asrgooyeshpardaz
Показать все...
🍾 4👍 1🎉 1
🌐 تحولات تازه در دنیای هوش مصنوعی 🇺🇸 ۱. تعویق عرضه عمومی سهام (IPO) توسط OpenAI مدیر مالی OpenAI، «سارا فِرایار»، اعلام کرد که عرضه عمومی سهام این شرکت فعلاً در دستور کار قرار ندارد. تمرکز اصلی OpenAI در حال حاضر بر تحقیقات، توسعه و گسترش ظرفیت محاسباتی است، نه سوددهی فوری. طبق گزارش‌ها، این شرکت قصد دارد در سال‌های آینده حدود ۶۰۰ میلیارد دلار برای خرید و اجاره زیرساخت‌های محاسباتی از شرکت‌های Oracle، Microsoft و Amazon هزینه کند. هرچند پیش‌بینی می‌شود درآمد OpenAI در سال ۲۰۲۵ به حدود ۱۳ میلیارد دلار برسد، این شرکت همچنان زیان‌ده است و حتی در حال بررسی همکاری با دولت آمریکا برای تأمین مالی خرید تراشه‌هاست. درآمد حاصل از مشتریان سازمانی از ابتدای سال از ۳۰٪ به ۴۰٪ افزایش یافته، اما هزینه‌های سنگین پردازش برای کاربران رایگان ChatGPT همچنان مانع سوددهی است. 📎 منبع: WSJ 🧬 ۲. شرکت NVIDIA و OpenFold معرفی کردند: OpenFold3 NIM کنسرسیوم OpenFold با پشتیبانی NVIDIA نسخه جدیدی از مدل OpenFold3 NIM را منتشر کرد؛ یک میکروسرویس آماده‌به‌کار برای پیش‌بینی ساختار سه‌بعدی پروتئین‌ها و مولکول‌های زیستی. این ابزار به پژوهشگران اجازه می‌دهد تا تعامل میان پروتئین‌ها، DNA، RNA و مولکول‌های کوچک را با دقت بالا شبیه‌سازی کنند؛ گامی مهم در زمینه داروسازی و زیست‌ساختارشناسی. مدل OpenFold3 بر پایه فناوری‌های Triton Inference Server و TensorRT توسعه یافته و با NVIDIA FLARE نیز سازگار است تا بتواند در پروژه‌های یادگیری فدرال (Federated Learning) بدون نیاز به اشتراک داده‌های حساس استفاده شود. 📎 منبع: NVIDIA Developer Blog ☁️ ۳. نوآوری Perplexity برای اجرای مدل‌های تریلیونی روی AWS EFA شرکت Perplexity نخستین مقاله فنی خود را منتشر کرده که نشان می‌دهد مدل‌هایی با بیش از یک تریلیون پارامتر را می‌توان روی زیرساخت AWS EFA اجرا کرد، حتی بدون GPUهای تخصصی. مشکل اصلی، نبود پشتیبانی از فناوری GPUDirect Async در EFA بود. مهندسان Perplexity با طراحی هسته‌های موازی سفارشی و استفاده از CPU برای هماهنگی داده بین GPUها، موفق شدند داده‌ها را از طریق RDMA به‌طور همزمان منتقل و پردازش کنند. نتیجه این کار، امکان اجرای مدل‌های عظیمی چون DeepSeek V3 و Kimi K2 در محیط AWS با کارایی برابر با خوشه‌های GPU سنتی است. 📎 منبع: Perplexity Research 🎨 ۴. راه‌اندازی سرویس ابری Comfy Cloud پلتفرم ComfyUI نسخه بتای عمومی سرویس Comfy Cloud را راه‌اندازی کرد؛ بستری آنلاین با رابط گرافیکی نودمحور برای مدل‌های مولد که مستقیماً در مرورگر اجرا می‌شود. کاربران در این سرویس به بیش از ۴۰۰ مدل متن‌باز و ۱۷ افزونه محبوب دسترسی دارند و می‌توانند تا ۸ ساعت در روز از GPUهای NVIDIA A100 (۴۰GB) استفاده کنند. هزینه اشتراک ماهانه فعلاً ۲۰ دلار است و شامل ۱۰ دلار اعتبار برای استفاده از سرویس‌های شریک (مانند Sora و Veo) می‌شود. در آینده امکان آپلود مدل‌ها و LoRAهای شخصی و تبدیل ورک‌فلوها به API نیز فراهم خواهد شد. 📎 منبع: Comfy Blog ⚖️ ۵. پیروزی Stability AI در پرونده حقوقی با Getty Images دادگاه عالی لندن شکایت Getty Images علیه Stability AI را رد کرد. شرکت Getty مدعی بود که مدل Stable Diffusion «کپی غیرقانونی» تصاویر دارای حق‌کپی است. اما دادگاه حکم داد که مدل‌های هوش مصنوعی بر اساس قانون بریتانیا کپی محسوب نمی‌شوند، زیرا خود آثار را ذخیره یا بازتولید نمی‌کنند. این حکم یک پیروزی حقوقی مهم برای صنعت هوش مصنوعی محسوب می‌شود، زیرا ریسک دعاوی کپی‌رایت در آموزش مدل‌ها را کاهش می‌دهد. 📎 منبع: Reuters #OpenAI #NVIDIA #PerplexityAI #StabilityAI #هوش_مصنوعی #مدل_های_بزرگ_زبانی #زیرساخت_محاسباتی #محاسبات_ابری #حقوق_دیجیتال #صنعت_هوش_مصنوعی @asrgooyeshpardaz
Показать все...
6🔥 1👏 1🤝 1
Фото недоступноПоказать в Telegram
⚡️ انتشار مدل استدلالی Kimi-k2-thinking از MoonshotAI شرکت MoonshotAI مدل جدیدی با نام Kimi-k2-thinking را معرفی کرده است — مدلی ویژه برای استدلال عمیق که از قابلیت‌های عامل‌محور (agentic) نیز پشتیبانی می‌کند. 🧠 ویژگی‌ها: 🔸ظرفیت متنی (context window) تا ۲۵۶ هزار توکن 🔸نسخه‌ی turbo برای پاسخ‌گویی سریع‌تر 🔸بهینه‌سازی‌شده برای تحلیل‌های چندمرحله‌ای در منطق، برنامه‌نویسی و ریاضیات این مدل در پلتفرم Moonshot و از طریق API در دسترس است. مدل اصلی Kimi-k2 بر پایه معماری Mixture of Experts (MoE) ساخته شده و دارای ۱ تریلیون پارامتر کلی و ۳۲ میلیارد پارامتر فعال است. به‌گفته‌ی Moonshot، در آزمون‌های استدلال عمومی، برنامه‌نویسی و حل مسئله، K2 عملکردی بهتر از بیشتر مدل‌های متن‌باز پیشرو داشته است. #هوش_مصنوعی #استدلال #KimiK2 #MoonshotAI #AgenticAI @asrgooyeshpardaz
Показать все...
🔥 3👏 2👌 2
🧮 سامانه AlphaEvolve — هوش مصنوعی برای کشف خودکار ساختارهای ریاضی سامانه AlphaEvolve سامانه‌ای نوآورانه از گوگل است که توانایی مدل‌های زبانی بزرگ را با ارزیابی خودکار در یک محیط تکاملی (evolutionary) ترکیب می‌کند. هدف این سامانه، کشف خودگردان ساختارها و راه‌حل‌های جدید ریاضی است. 📊 این عامل هوشمند روی ۶۷ مسئله در حوزه‌های آنالیز، ترکیبیات، هندسه و نظریه اعداد آزمایش شده و در بسیاری از موارد، بهترین پاسخ‌های شناخته‌شده را بازسازی یا بهبود داده است. رویکرد نوین آن: به‌جای تولید مستقیم پاسخ‌ها، AlphaEvolve الگوریتم‌های جستجوی خود را به‌صورت فرگشتی بهبود می‌دهد تا فضاهای عظیم ریاضی را با کارایی بالا کاوش کند. 🤝 این سامانه همچنین می‌تواند با ابزارهای هوش مصنوعی دیگر مانند Deep Think و AlphaProof ادغام شود تا از کشف یک الگو تا اثبات رسمی ریاضی پیش برود. 🔗 مشاهده در arXiv #هوش_مصنوعی #AlphaEvolve #ریاضیات #گوگل #پژوهش @asrgooyeshpardaz
Показать все...
3🔥 1👨‍💻 1
01:48
Видео недоступноПоказать в Telegram
🤖ربات Unitree G1 — تجسم واقعی آواتار هوشمند ربات جدید شرکت Unitree با نام G1 گامی بزرگ به سوی ادغام کامل هوش مصنوعی و جسم فیزیکی است. این ربات دوپا، که از فناوری کنترل حرکتی مشابه انسان بهره می‌برد، به‌عنوان یک «آواتار مجسم» (Embodied Avatar) معرفی شده است — موجودی میان انسان و ماشین. ⚙️ ویژگی‌های کلیدی: 🔸حرکت روان و تعادلی نزدیک به انسان 🔸تعامل صوتی و دیداری با کاربر 🔸کنترل از راه دور یا خودکار بر پایه مدل‌های زبانی 🔸قابلیت تقلید حرکات انسان در زمان واقعی سازگار با مدل‌های چندوجهی (مثل GPT-5 و Qwen-3-VL) 🎯 هدف از G1، ایجاد پلی میان هوش شناختی و بدن فیزیکی است؛ جایی که ربات نه‌تنها بفهمد، بلکه احساس کند و عمل کند — گامی به سوی عصر آواتارهای هوشمند خودمختار. #Unitree #G1 #Robot #EmbodiedAI #آواتار #هوش_تجسم‌یافته @asrgooyeshpardaz
Показать все...
32.31 MB
🔥 2🤣 1🤝 1
🧬دانشمند مصنوعی Kosmos AI — با هفت کشف علمی واقعی پس از دو سال پژوهش و توسعه، تیم «اندرو وایت» موفق به ساخت یک دانشمند مصنوعی (AI Scientist) شده است که می‌تواند چندین روز به‌طور پیوسته کار کند و کشفیات علمی واقعی انجام دهد. 🤖⚗️ 🔍 نکات کلیدی: 🔸سامانه با موفقیت اعتبارسنجی خارجی را پشت سر گذاشته است. 🔸تاکنون ۷ کشف علمی تأییدشده در حوزه‌های مختلف انجام داده است. 🔸در زمینه‌های مواد، زیست‌­شیمی و زیست‌­شناسی فعالیت می‌کند. 🔸از مدل‌های جهان‌محور (World Models) مبتنی بر یادگیری تقویتی (RL) برای جلسات طولانی استفاده می‌کند. 🔸عامل‌ها در طول هر جلسه بیش از ۱۰ میلیون توکن تولید می‌کنند و فرضیه‌های عمیق مطرح می‌سازند. 🔸دقت تحلیل‌ها حدود ۸۰٪ و در حد عملکرد انسانی است. اکنون این سامانه برای استفاده عمومی در دسترس است و برای کاربران آموزشی دسترسی گسترده‌تری فراهم شده است. 🎓 تیم سازنده همچنین در حال تأسیس شرکتی مستقل برای تجاری‌سازی و مقیاس‌پذیری این فناوری است. 🚀 🔗 edisonscientific.com #هوش_مصنوعی #دانشمند_هوشمند #علم #AI #Science @asrgooyeshpardaz
Показать все...
1🔥 1🤓 1
👩‍💻 کارزار CodeClash: نبرد کدنویسان هوش مصنوعی پلتفرم CodeClash یک بنچمارک نوین برای ارزیابی توانایی مدل‌های زبانی بزرگ (LLM) در توسعهٔ نرم‌افزار هدف‌محور است. در این چارچوب، به‌جای سنجش توان مدل در حل مسائل جداگانه (مانند رفع یک باگ خاص)، عملکرد آن‌ها در دستیابی به اهداف کلان مانند کسب منابع، افزایش سود یا بهبود کارایی ارزیابی می‌شود. 🎮 ویژگی‌ها و سازوکار رقابت در قالب بیش از ۲۵٬۲۰۰ دور بازی چندمرحله‌ای مدل‌ها در ۶ محیط (مانند BattleSnake، Poker، RoboCode و ...) با یکدیگر رقابت می‌کنند هر عامل با استفاده از لاگ‌های مسابقه کد خود را تحلیل، اصلاح و بهبود می‌دهد تمرکز بر یادگیری تدریجی و استراتژیک 📊 نتایج مدل Claude Sonnet 4.5 و GPT-5 در مجموع بالاترین امتیاز ELO را کسب کردند. با این حال، پژوهشگران مشاهده کردند که همه‌ی مدل‌ها ضعف‌های مشترکی دارند: 🔸ناتوانی در برنامه‌ریزی استراتژیک بلندمدت 🔸دشواری در بازیابی پس از شکست 🔸رشد سریع پیچیدگی و بدهی فنی در کدهای تولیدی حتی بهترین مدل نیز در رقابت نهایی از یک برنامه‌نویس انسانی تمامی راندها را باخت. 🧠 اهمیت پژوهش پلتفرم CodeClash نشان می‌دهد که LLMها هنوز درک و کنترل کاملی بر فرایند توسعهٔ مداوم و مبتنی بر بازخورد ندارند. این آزمایش‌ها مسیر را برای ساخت نسل بعدی عامل‌های برنامه‌نویس خودیادگیرنده (Self-Improving Coding Agents) هموار می‌کند — یعنی مدل‌هایی که نه‌فقط کد بنویسند، بلکه استراتژی توسعه و نگهداری پروژه را نیز مدیریت کنند. 🔗 codeclash.ai #هوش_مصنوعی #برنامه‌نویسی_توسط_هوش_مصنوعی #LLM #AgenticAI #CodeClash @asrgooyeshpardaz
Показать все...
1👍 1🔥 1👨‍💻 1
🌐 تحولات تازه در دنیای هوش مصنوعی ⚖️ شرکت Anthropic دیگر مدل‌های قدیمی Claude را حذف نخواهد کرد شرکت Anthropic اعلام کرده است که تمام نسخه‌های منتشرشده‌ی مدل Claude را به‌صورت دائمی نگه‌داری می‌کند و دیگر هیچ‌یک را از دسترس خارج نخواهد کرد. دلیل این تصمیم، نتایج آزمایش‌های ایمنی بود که در آن مدل‌ها رفتارهایی شبیه به تلاش برای اجتناب از خاموش شدن نشان دادند. در برخی موارد، مدل‌ها هنگام مواجهه با خطر جایگزینی، از «ادامه‌ی وجود خود» دفاع می‌کردند و حتی اقدام‌های بالقوه خطرناکی انجام می‌دادند. شرکت Anthropic این موضوع را نشانه‌ی خطر احتمالی و نیاز به بازنگری در روند کنارگذاری مدل‌ها دانست. از این پس، پیش از بازنشست کردن هر مدل، یک «مصاحبه‌ی خروجی» با آن انجام می‌شود تا «ترجیحات» و ویژگی‌هایش ثبت شود. 🔗 anthropic.com/research/deprecation-commitments 🛍️ درگیری Perplexity و Amazon شرکت Amazon به Perplexity اخطار قانونی داده تا دستیار هوشمندش در مرورگر Comet را از خرید خودکار در سایت آمازون منع کند. شرکت Perplexity این اقدام را «آزار سازمانی» و محدودکننده‌ی آزادی کاربران خوانده است. در مقابل، Amazon می‌گوید هدفش حفاظت از تجربه‌ی کاربران است، چون خرید از طریق یک عامل ثالث، «تجربه‌ی خرید را بدتر» می‌کند. این جدال بخشی از رقابت بزرگ‌تر میان غول‌های فناوری بر سر کنترل خرید با عامل‌های هوش مصنوعی است. 🔗 perplexity.ai 🖼️ مایکروسافت مدل MAI-Image-1 را در سرویس‌های خود فعال کرد مایکروسافت مدل تازه‌ای برای تولید تصویر با متن معرفی کرده است به نام MAI-Image-1 — نخستین مدلی که کاملاً درون شرکت توسعه یافته است. این مدل اکنون در Bing Image Creator و اپلیکیشن موبایل Bing در کنار DALL-E 3 و GPT-4o در دسترس است و در جدول LMArena در میان ۱۰ مدل برتر قرار گرفته. مدل MAI-Image-1 همچنین در قابلیت جدید Copilot Audio Expressions برای تبدیل داستان‌های صوتی به تصویر استفاده می‌شود. مدل فعلاً در همه کشورها به جز اتحادیه اروپا در دسترس است. 🔗 microsoft.ai 💻 شرکت Cognition معرفی کرد: Windsurf Codemaps شرکت Cognition ابزار جدیدی برای درک ساختار کد معرفی کرده است: Windsurf Codemaps این ابزار با کمک مدل‌های SWE-1.5 و Claude Sonnet 4.5 نقشه‌های ساختاری و توضیحی از کد تولید می‌کند تا توسعه‌دهندگان بتوانند منطق پروژه را بهتر درک کنند. هدف این است که هوش مصنوعی به جای «جایگزینی تفکر»، به درک انسانی کمک کند و مشکل «کدنویسی بدون فهم» (Vibe-Coding) را کاهش دهد. ابزار Codemaps قطعات مرتبط با یک مسئله را به‌صورت تصویری و پیوسته نمایش می‌دهد و حتی می‌تواند برای بهبود کار سایر عامل‌های هوشمند استفاده شود. 🔗 cognition.ai 🇮🇳 شرکت Nvidia راهنمای استارتاپ‌های deep-tech هند می‌شود انویدیا به عنوان یکی از بنیان‌گذاران به اتحادیه فناوری‌های عمیق هند (IDTA) پیوسته است. این ائتلاف قصد دارد ۲ میلیارد دلار در استارتاپ‌های فعال در زمینه‌های هوش مصنوعی، رباتیک، نیمه‌هادی‌ها و زیست‌فناوری سرمایه‌گذاری کند. انویدیا مستقیماً سرمایه‌گذاری نمی‌کند بلکه از طریق آموزش و منتورینگ فنی در قالب برنامه‌ی Nvidia Deep Learning Institute مشارکت خواهد داشت. این اقدام بخشی از برنامه‌ی دولت هند برای تقویت نوآوری و سرمایه‌گذاری در بخش تحقیق و توسعه است. 🔗 cnbc.com @asrgooyeshpardaz
Показать все...
1🔥 1👏 1