عصر گویش | هوش مصنوعی
رفتن به کانال در Telegram
2025 سال در اعداد

111 643
مشترکین
-7724 ساعت
-7427 روز
-3 10330 روز
آرشیو پست ها
Photo unavailableShow in Telegram
🔰 گوگل یک سند ۵۰ صفحهای جدید منتشر کرده که توضیح میدهد چگونه میتوان AI Agentهایی ساخت که در کاربردهای واقعی عملکرد قابل اتکا و عملی داشته باشند.
این راهنما یک مقدمه روشن، ساختارمند و قابل فهم درباره اصول و مبانی سامانههای عاملمحور است. در این سند به موضوعات زیر پرداخته میشود:
🔸معماری عامل و اجزای اصلی آن
🔸نقش مدلهای زبانی بزرگ (LLM) به عنوان «مغز» عامل
🔸شیوه اتصال و استفاده از ابزارها
🔸نحوه هماهنگی و ارکستراسیون چند عامل
رویکردهای استقرار (Deploy) و ادغام در محیط واقعی
🔸معیارها و روشهای ارزیابی عملکرد
🔸چگونگی طراحی عاملهای خودآموز و تکاملی
🔸معرفی نمونهای از معماری AlphaEvolve
📌 لینک راهنما:
https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view
#AI #Agents #Google #LLM #MachineLearning #AIResearch
@asrgooyeshpardaz
🔥 2👨💻 1
Photo unavailableShow in Telegram
🔎مدل Upscale-LoRA؛ ابزار قدرتمند برای بازسازی و بهبود کیفیت تصاویر
اگر با عکسهای قدیمی، تار، پر از نویز یا رزولوشن پایین سروکار دارید، مدل Upscale-LoRA میتواند آنها را شگفتانگیز و زنده کند.
این مدل بر پایه Qwen-Image-Edit-2509 ساخته شده و مخصوص ارتقای کیفیت تصاویر طراحی شده است. قابلیتهایی که ارائه میدهد شامل:
✅ افزایش وضوح و شارپنس
✅ حذف نویز و بهبود شفافیت
✅ بازگردانی جزئیات از دسترفته
✅ حذف آرتیفکتهای JPEG و پاکسازی فشردهسازی
✅ مناسب برای عکسهای آرشیوی، اسکرینشاتها، تصاویر کمکیفیت یا کوچک
💡 اگر میخواهید عکسهای قدیمی، تصاویر دوربینهای قدیمی یا اسنپشاتهای بیکیفیت را دوباره قابل استفاده کنید، این مدل یک انتخاب عالی است.
🔗 نسخه مدل در HuggingFace:
https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA
#Upscaler
@asrgooyeshpardaz
👍 2❤ 1👏 1🤓 1
🧠 روش MIRA: وقتی مدلها برای فکر کردن باید «به تصویر نگاه کنند»
تحقیق جدید ByteDance یک نکته خیلی مهم را ثابت میکند:
مدلهای هوش مصنوعی در بسیاری از مسائل فقط با متن نمیتوانند درست فکر کنند؛
اما وقتی تصاویر مرحلهبهمرحله در اختیارشان قرار بگیرد، ناگهان عملکردشان جهش پیدا میکند.
🚀 چه چیزی کشف شد؟
🔸مدلها در حل مسائل سخت فضایی، هندسی و فیزیکی بد عمل میکنند.
🔸حتی بهترین مدلها در حالت مستقیم (بدون کمک) دقتی زیر ۲۰٪ دارند.
🔸اضافه کردن استدلال متنی هم همیشه کمک نمیکند.
🔸اما وقتی به مدل «طرحها و Sketch» بدهید:
✅ دقت بهطور میانگین ۳۳.۷٪ بهتر میشود!
🧩 چرا تصویر اینقدر کمک میکند؟
🔸چون بعضی چیزها را نمیشود با کلمه توضیح داد:
⚽️مسیر حرکت یک توپ
🪞زاویه برخورد نور به آینه
ℹ️مکعبی که باید چرخانده شود
↙️نیروهایی که به جسم وارد میشود
برای اینها دیدن خیلی مهمتر از خواندن است.
همانطور که ما خودمان هنگام حل مسئله یک نمودار ساده میکشیم، مدلها هم با تصویر بهتر فکر میکنند.
🔍روش MIRA دقیقاً چه میکند؟
این بنچمارک شامل:
🔸۵۴۶ مسئله
🔸۲۰ نوع چالش مختلف
و برای هر مسئله سه حالت آزمایش دارد:
🔹پاسخ مستقیم
🔹استدلال با متن
🔹استدلال با طرحها و تصاویر
نتیجه؟
📌 حالت سوم تقریباً همیشه بهترین است.
💡 نتیجه بزرگ
برای رسیدن به مدلهایی که مثل انسان فکر کنند، باید قدرت تصور بصری را به آنها اضافه کنیم.
نسل بعدی هوش مصنوعی فقط حرف نمیزند — میبیند، ترسیم میکند و با تصویر فکر میکند.
📰مقاله:
https://arxiv.org/abs/2511.02779
@asrgooyeshpardaz
🔥 1
📉 سقوط بزرگ بازار هوش مصنوعی — ۸۰۰ میلیارد دلار در چند روز!
بازار سهام شرکتهای مرتبط با هوش مصنوعی یکی از شدیدترین افتهای سالهای اخیر را تجربه کرد. تنها در یک هفته، حدود ۸۰۰ میلیارد دلار از ارزش این شرکتها دود شد و از بین رفت.
شاخص Nasdaq نیز حدود ۳٪ افت کرد — نشانهای جدی از اینکه بازار نسبت به سرعت رشد AI دچار تردید شده است.
🔥 چرا چنین سقوط شدیدی رخ داد؟
1) هزینههای سنگین و فزاینده
شرکتهای بزرگ در دوره سهماهه اخیر حدود ۱۱۲ میلیارد دلار در زیرساختهای AI سرمایهگذاری کردهاند، آن هم عمدتاً با تأمین مالی از طریق بدهی.
اگر درآمدها همسطح با این هزینهها رشد نکنند، این بدهی تبدیل به فشار سنگینی خواهد شد.
2) نبود خریداران در زمان سقوط
سرمایهگذاران فردی معمولاً در زمان اصلاح بازار وارد میشوند و از ریزش جلوگیری میکنند.
این بار وارد نشدند و سقوط عمیقتر شد.
3) شرایط نامساعد اقتصادی
افت اعتماد مصرفکننده به پایینترین سطح ۳ سال اخیر
نبود دادههای مهم اقتصادی به مدت ۶ هفته
خبرهای تازه از موج جدید تعدیل نیرو
همه این موارد فضای بازار را عصبی کرده است.
⚠️ عوامل تشدیدکننده سقوط
✅ هجوم همزمان هِجفاندها به سمت فروش
خیلی از صندوقهای بزرگ در یک دسته از سهام AI متمرکز شده بودند.
با اولین علامت ریزش، همگی با هم شروع به فروش کردند → ایجاد موج دوم و سوم ریزش.
✅ فروش الگوریتمی
با افزایش نوسان، مدلهای معاملهگری خودکار شروع به کاهش پوزیشنها میکنند — همین موضوع ضربه را سنگینتر کرد.
🎯 ضربه اصلی: Nvidia
شرکت Nvidia که تنها یک هفته قبل به ارزش ۵ تریلیون دلار رسیده بود، در همین سقوط ۳۵۰ میلیارد دلار از ارزش خود را از دست داد.
این نشان میدهد وقتی انتظارات بیش از حد بالا باشد، حتی یک نشانه کوچک میتواند منجر به سقوطهای عظیم شود.
🔍 نقاط فشار بازار
🔸 سیاست
احتمال وضع محدودیتهای جدید بر فروش پردازندههای Blackwell به چین → کاهش انتظارات از تقاضای آینده.
🔸 رقابت
شایعه اینکه مدل Moonshot Kimi K2 با کمتر از ۵ میلیون دلار آموزش داده شده، نگرانی «AGI ارزان» را دوباره زنده کرد.
پیشتر همین موضوع با DeepSeek باعث شد Nvidia در یک روز ۵۸۹ میلیارد دلار سقوط کند.
🔸 ابهام در تأمین مالی
صحبتها درباره پروژههای زیرساختی عظیم AI با هزینههای ۵۰۰ میلیارد یا حتی ۱.۴ تریلیون دلار سرمایهگذاران را به فکر فرو برده:
این همه هزینه واقعاً کی قرار است بازگشت داشته باشد؟
🧭 جمعبندی
بازار AI همچنان موتور اصلی رشد است،
اما برای اولین بار نشانهای جدی از ریسکهای پنهان دیده میشود.
وقتی بازار بیشازحد داغ و انتظارات غیرواقعی باشد،
کوچکترین شک هم میتواند به صدها میلیارد دلار تبدیل شود.
📚 منابع
(بر اساس گزارشهای خبری و تحلیلهای بازار از رسانههای زیر)
Financial Times
Reuters
Business Insider
Economic Times
Yahoo Finance
@asrgooyeshpardaz
❤ 8👍 1🔥 1😱 1🤝 1
🔥 گوگل Nested Learning را معرفی کرد — رویکردی نوین در یادگیری مداوم، شبیه مغز انسان
گوگل در پژوهش تازهٔ خود، پارادایم جدیدی به نام Nested Learning یا یادگیری تودرتو ارائه کرده است؛ روشی که اجازه میدهد مدلهای هوش مصنوعی دانش جدید را درون ساختار قبلی خود لایهبندی کنند، بدون اینکه مهارتها و اطلاعات پیشین را از دست بدهند.
✅ رویکرد Nested Learning چیست؟
در این رویکرد، هر مرحلهٔ جدید آموزش درون لایههای قبلی قرار میگیرد؛ درست مثل لایهگذاری دانش در ذهن انسان.
بهجای بازنویسی یا جایگزینی اطلاعات قبلی، مدل:
تواناییهای گذشته را حفظ میکند
قابلیت سازگاری با وظایف جدید را بهدست میآورد
بهتر تشخیص میدهد در چه حالت و چه زمینهای باید پاسخ دهد
✅ چه مزایایی دارد؟
1) یادگیری بیپایان بدون فراموشی
مدل میتواند به صورت مداوم یاد بگیرد، بدون آنکه دانش قبلی پاک یا تضعیف شود.
این یعنی پایان مشکل «فراموشی فاجعهبار» در یادگیری ماشینی.
2) فهم عمیقتر از بافت و زمینه
روش Nested Learning کمک میکند مدل بداند در چه وضعیتی قرار دارد — مثلاً آیا در حالت استدلال است؟ خلاصهسازی؟ ترجمه؟
این منجر به رفتار هوشمندانهتر و سازگارتر میشود.
3) نزدیکتر شدن به شیوه یادگیری انسان
این روش یادگیری را مرحلهای، تدریجی و پویا میکند — شبیه همان چیزی که در مغز انسان میبینیم.
🔗 برای مطالعهٔ کامل در وبلاگ گوگل:
(لینک رسمی)…
@asrgooyeshpardaz
❤ 1🔥 1
🎧🚀 شرکت StepFun AI مدل Step-Audio-EditX را منتشر کرد: نسل جدید و متنمحور ویرایش صدا با LLM
آیا میتوان ویرایش گفتار را به اندازهی بازنویسی یک جمله، ساده و قابل کنترل کرد؟
پاسخ StepFun AI به این پرسش: بله!
🔬 این شرکت امروز Step-Audio-EditX را معرفی و بهصورت متنباز منتشر کرد؛ مدلی صوتی با ۳ میلیارد پارامتر که ویرایش گفتار را از یک فرآیند پیچیدهی پردازش سیگنال، به ویرایش سطح توکن شبیه متن تبدیل میکند.
🧠 نوآوری اصلی: تبدیل صدا به توکنهای قابل فهم توسط LLM
این مدل بر پایهی توکنایزر دوکدبوکی Step-Audio ساخته شده است. گفتار به دو جریان اطلاعاتی تبدیل میشود:
🔹 جریان زبانی با فرکانس 16.7Hz و کدبوک 1024تایی
🔹 جریان معنایی/احساسی با فرکانس 25Hz و کدبوک 4096تایی
این دو جریان با نسبت ۳ به ۲ بهصورت درهمتنیده ترکیب میشوند.
نتیجه؟
✅ حفظ لحن، ریتم، احساس و بیان گوینده
✅ امکان ویرایش دقیق بدون از دستدادن حالتهای صوتی طبیعی
🏗️ مدل صوتی LLM-Grade با ۳ میلیارد پارامتر
مدل Step-Audio-EditX در واقع یک LLM صوتی است که ابتدا از یک مدل زبانی آغاز شده و سپس با دادههای ترکیبی آموزش دیده است:
📘 ۵۰٪ دادهها 👈 متن خالص
🎧 ۵۰٪ دادهها 👈 توکنهای صوتی دوکدبوکی
🎭 قالب محاورهای و چتمحور
این مدل میتواند:
✅ ورودی متن بگیرد
✅ ورودی صوتی (توکن) بگیرد
✅ یا ترکیبی از هر دو
اما همیشه خروجی را بهصورت توکنهای صوتی دوکدبوکی تولید میکند — یعنی آمادهی بازسازی گفتار.
🎨 نتیجه: ویرایش گفتار مثل ویرایش متن!
با Step-Audio-EditX میتوان:
✏️ لحن را تغییر داد
✏️ کلمات را جایگزین کرد
✏️ مکثها، احساسات و آهنگ گفتار را اصلاح کرد
✏️ نسخههای تکراری و اصلاحشده تولید کرد
همه اینها با همان سهولت کار با متن.
📂 منابع و لینکها
🔗 تحلیل کامل:
https://www.marktechpost.com/2025/11/09/stepfun-ai-releases-step-audio-editx-a-new-open-source-3b-llm-grade-audio-editing-model-excelling-at-expressive-and-iterative-audio-editing/
📄 مقاله پژوهشی:
https://arxiv.org/abs/2511.03601
💻 مخزن گیتهاب:
https://github.com/stepfun-ai/Step-Audio-EditX?tab=readme-ov-file
🧩 وزن مدل در هاجینگفیس:
https://huggingface.co/stepfun-ai/Step-Audio-EditX
اگر میخواهید ویرایش صوت را به سطح جدیدی از دقت، کنترل و خلاقیت ببرید، این مدل یک نقطهعطف مهم در آیندهی ابزارهای صوتی هوشمند است.
@asrgooyeshpardaz
❤ 3🔥 1👏 1👌 1
⚡️ انتشار مدل جدید GPT-5-Codex-Mini توسط OpenAI
شرکت OpenAI نسخهای جدید و سبکتر از مدل پرچمدار خود در حوزه برنامهنویسی، یعنی GPT-5-Codex را معرفی کرده است.
این نسخه با نام GPT-5-Codex-Mini شناخته میشود و هدف آن ارائهی عملکرد مشابه در کنار کاهش چشمگیر هزینههای محاسباتی است.
⚙️ ویژگیهای کلیدی:
بهرهوری چهار برابر بالاتر در مقایسه با نسخهی کامل GPT-5-Codex؛
یعنی اجرای آن بسیار ارزانتر و سریعتر است.
افت عملکرد بسیار جزئی:
در آزمون معیار SWE-bench Verified، نسخهی Mini امتیاز ٪71.3 کسب کرده است،
در حالیکه نسخهی کامل Codex امتیاز ٪74.5 دارد.
→ تفاوت تنها ۳.۲ درصد است و در بیشتر کاربردهای عملی محسوس نخواهد بود.
🧠 موارد استفاده پیشنهادی:
انجام کارهای تکراری در محیطهای توسعه (IDE)
تولید خودکار کدهای اولیه (Boilerplate)، تستهای واحد، فایلهای Docker و YAML
صرفهجویی در مصرف توکنها یا منابع GPU در زمان نزدیک شدن به محدودیتها
نمونهسازی سریع، تولید خودکار کد و پشتیبانی از توسعهدهندگان در محیطهایی مانند Cursor، VS Code، JetBrains و ابزارهای مشابه Copilot
🚀 دسترسی و یکپارچهسازی:
مدل هماکنون از طریق CLI و افزونه IDE رسمی OpenAI در دسترس است.
پشتیبانی API نیز بهزودی فعال خواهد شد.
در صورتی که کاربر به ۹۰٪ از سقف استفاده از Codex برسد، سیستم بهصورت خودکار پیشنهاد میدهد که به نسخهی Mini منتقل شود تا کار بدون توقف ادامه یابد.
💡 جمعبندی:
مدل GPT-5-Codex-Mini گامی هوشمندانه از سوی OpenAI است برای
کاهش هزینهها بدون افت محسوس در کیفیت تولید کد.این نسخه بهویژه برای کاربردهای روزمره، خطوط CI/CD، تولید خودکار کد و آموزش مدلهای عاملمحور (Generative Agents) بسیار مناسب است. @asrgooyeshpardaz
❤ 2🤝 2👎 1🤓 1
🌐 تحولات تازه در دنیای هوش مصنوعی
🚀 پولاریس آلفا (Polaris Alpha)؛ احتمالاً نسخه آزمایشی GPT-5.1
مدلی جدید بدون هیچ اعلام رسمی در پلتفرم OpenRouter در دسترس قرار گرفته که بسیاری آن را نسخه آزمایشی GPT-5.1 از OpenAI میدانند.
🔹 دارای پنجره متنی تا ۲۵۶ هزار توکن
🔹 تمرکز بر تولید کد و اجرای دستورهای پیچیده
🔹 در ارزیابی EQ-Bench عملکردی همتراز با Claude-3.5-Sonnet دارد
کاربران از دقت بالا و حداقل توهمات زبانی خبر دادهاند. دسترسی رایگان از طریق وب و API ممکن است.
🌐 openrouter.ai/openrouter/polaris-alpha
🌍 مایکروسافت و ایدهی «فراهوش انسانی» (Humanist Superintelligence)
مصطفی سلیمان، مدیرعامل Microsoft AI، از طرحی با عنوان «فراهوش انسانی» (HSI) رونمایی کرده است — مفهومی متفاوت از AGI.
در این رویکرد، هدف ساخت سیستمهای هوشمند کنترلپذیر و کاربردی برای حل مسائل واقعی بشر است، نه رقابت در ساخت ابرهوش خودمختار.
🎯 تمرکز HSI:
کشف راهکارهای نو در پزشکی
انرژی پاک
دستیارهای شخصی انسانمحور
🔗 microsoft.ai/news/towards-humanist-superintelligence
⚙️ گوگل منتشر کرد: Magika 1.0 برای تشخیص نوع فایل با هوش مصنوعی
گوگل نسخه پایدار ابزار Magika 1.0 را منتشر کرد — ابزاری متنباز بازنویسیشده با Rust برای شناسایی خودکار نوع فایلها.
ویژگیها:
پشتیبانی از بیش از ۲۰۰ نوع فایل (از جمله Jupyter، PyTorch، Dockerfile)
استفاده از ONNX Runtime برای استنتاج سریع
پردازش صدها فایل در ثانیه روی یک هسته CPU
کتابخانههای جدید برای Python و TypeScript
🔗 opensource.googleblog.com
🤖 فاکسکان (Foxconn) از رباتهای انساننما در مونتاژ سرورهای هوش مصنوعی استفاده میکند
غول سختافزاری تایوانی طی ۶ ماه آینده در کارخانه خود در تگزاس رباتهای انساننما را برای مونتاژ سرورهای AI به کار میگیرد.
این نخستین استفاده گسترده از رباتهای انساننما در تاریخ ۵۰ ساله شرکت است.
🎯 هدف: افزایش بهرهوری و تسریع تولید برای مشتریان کلیدی مانند NVIDIA
🔗 asia.nikkei.com
🔥 سومیت چینتالا (Soumith Chintala)؛ خالق PyTorch، متا را ترک میکند
پس از ۱۱ سال فعالیت در شرکت مارک زاکربرگ، سومیت چینتالا، یکی از بنیانگذاران PyTorch، اعلام کرد در ۱۷ نوامبر شرکت را ترک میکند.
او میگوید PyTorch به بلوغ و پایداری کامل رسیده و اکنون زمان تجربههای جدید است.
در حال حاضر، PyTorch بیش از ۹۰٪ از بازار توسعه مدلهای AI را در اختیار دارد.
🔗 پست رسمی در X
#خبر_هوش_مصنوعی #GPT5 #PolarisAlpha #مایکروسافت #HSI #Magika #گوگل #PyTorch #فاکسکان #ربات_انسان_نما #AI #ML
@asrgooyeshpardaz
❤ 4🔥 1👏 1😎 1
🧞♂ روز بعد از تولد هوش مصنوعی عمومی (AGI)
📖 بر اساس تحلیل لویی روزنبرگ در BigThink
🔹 بحران اصلی AGI شغل نیست، هویت است.
وقتی درباره هوش مصنوعی عمومی حرف میزنیم، ذهنمان معمولاً میره سمت از دست رفتن شغلها یا فیکنیوز.
اما روزنبرگ میگه مسئله بزرگتر، درون ماست:
اینکه وقتی «هوشمندترین موجود در اتاق» دیگه انسان نباشه، ما خودمون رو چطور تعریف میکنیم؟
📱 وقتی گوشی از ما باهوشتر بشه...
او میپرسه:
وقتی تنها توی آسانسور باشی، تو و گوشیت، و گوشیت باهوشتر از تو باشه، حسِ تو به خودت چی میشه؟
این یه پرسش ساده نیست؛ شروع یه بحران شناختیه.
بهزودی صدای درونمون جای خودش رو به صدای بیرونی از هدفون، عینک یا گردنبند هوشمند میده.
🤖 دستیاران هوشمند آینده فقط ابزار نیستند
اونها ما رو «میبینن»، «میشنون» و قبل از اینکه بفهمیم چی میخوایم، پیشنهاد میدن.
دیگه صرفاً کمکی نیستن — شریکی هستن در تصمیمگیری، حتی در عشق و احساس.
وقتی کسی به ما هدیه میده، آیا انتخاب خودش بوده؟ یا هوش مصنوعیاش انتخاب کرده؟
⚖️ مرز باریک توانمندسازی و تضعیف انسان
فناوری میتونه ما رو قویتر کنه؛
اما اگه همه تصمیمهامون رو بسپریم به ماشین، حس عاملیتمون رو از دست میدیم.
اون روز، انسان ممکنه هنوز زنده باشه — اما شاید دیگه مرکز آگاهی نباشه.
🔍 دعوت به بازاندیشی
روزنبرگ میگه:
پیش از اینکه AGI از ما جلو بزنه، باید به «روز بعدش» فکر کنیم.
به اینکه چطور میتونیم فناوری بسازیم که در خدمت انسان بمونه، نه جایگزین او.
📚 برای پژوهشگران و طراحان عاملهای هوشمند، این مقاله یادآور یه نکته مهمه:
هدف فقط ساختن ذهنی برتر نیست — باید بدونیم با اون ذهن چطور زندگی میکنیم.
#هوش_مصنوعی #AGI #فلسفه_تکنولوژی #آینده_انسان #GenerativeAgents #هوش_عمومی
👍 3👎 2🎉 1
🧠 چارچوب تازه برای ارزیابی گفتار نقشآفرینانه: Speech-DRAME
پژوهشگران دانشگاه کارنگی ملون و تنسنت با همکاری شینجی واتانابه، چارچوبی نو با نام Speech-DRAME معرفی کردهاند؛ سامانهای که همان کاری را برای گفتار انجام میدهد که HELM و MT-Bench برای مدلهای متنی انجام دادند — یعنی ایجاد معیاری انسانمحور و بازتولیدپذیر برای سنجش کیفیت گفتارهای نقشآفرین (Speech Role-Play).
🎯 ایده اصلی
ارزیابی سامانههای گفتاری نباید فقط بر پایهی متن و دقت بازشناسی گفتار (ASR) انجام شود. مدلهای داور فعلی، با اتکا بر معیارهای ارزیابی مانند WER، ظرافتهایی مانند لحن، احساس، آهنگ و همخوانی نقش را درک نمیکنند.
چارچوب Speech-DRAME برای حل این مشکل، سه مؤلفهی کلیدی ارائه کرده است: داده، مدل و بستر ارزیابی.
📚 ۱. مجموعه داده دوزبانه (Speech-DRAME-EvalBench)
این مجموعه شامل گفتوگوهای نقشآفرینانهی واقعی به دو زبان انگلیسی و چینی است که توسط انسان ارزیابی شدهاند. معیارهایی چون «واقعنمایی نقش»، «بیان احساسی» و «تناسب گفتار» در آن لحاظ شده است. این دادهها مبنای آموزش مدلهای ارزیابی گفتار (Speech Evaluation Models) قرار میگیرند.
🤖 ۲. مدل ارزیابی DRAME-Eval
این مدل بهصورت تنظیمی (Fine-tuned) آموزش دیده تا بتواند مانند داور انسانی، کیفیت گفتار را بسنجند.
نتایج نشان میدهد همبستگی آن با ارزیابی انسانی از حدود ۰٫۴۸ به ۰٫۶۳ در «ارزیابی نقشنمونهای» و از ۰٫۳۹ به ۰٫۶۳ در «ارزیابی واقعگرایانه» افزایش یافته است — جهشی چشمگیر در همخوانی با درک انسان.
🎭 ۳. بستر مقایسهای (Speech-DRAME-RoleBench)
در این بستر، مدل DRAME-Eval نقش داور خودکار را ایفا میکند تا بتوان عملکرد مدلهای بنیادی گفتار (Speech Foundation Models) مانند VALL-E-X، CosyVoice و GPT-4o-audio را در سناریوهای واقعی گفتار نقشآفرین (Speech Role-Play) مقایسه کرد.
🔍 دو شیوه ارزیابی
1️⃣ ارزیابی نقشنمونهای (Archetype Evaluation): سنجش میزان انطباق گفتار با نقشهای عمومی مانند «پزشک»، «معلم» یا «دوست».
2️⃣ ارزیابی واقعگرایانه (Realism Evaluation): بررسی طبیعی بودن، خودانگیختگی و ظرافت احساسی بر پایهی گفتارهای انسانی واقعی.
⚙️ ویژگیهای فنی برجسته
🔸ارزیابی مستقیم سیگنال صوتی بدون اتکا به متن.
🔸استفاده از ویژگیهای فرازبانی مانند زیر و بمی، شدت و آهنگ گفتار.
🔸آموزش دوزبانه برای درک تفاوتهای فرهنگی در بیان احساس.
🔸انتشار عمومی داده، کد و دستورالعمل برای بازتولید نتایج.
💡 اهمیت پژوهش
چارچوب Speech-DRAME گامی بزرگ به سوی ارزیابی واقعگرایانه و انسانمحور در مدلهای گفتاری است.
با گسترش مدلهایی چون GPT-4o، WhisperSpeech و Qwen-Audio-VL، اهمیت چنین چارچوبهایی دوچندان میشود.
در حقیقت، این پژوهش ما را از سنجش درستی زبانی بهسوی سنجش کیفیت ارتباط انسانی سوق میدهد — یعنی اینکه هوش مصنوعی فقط چه میگوید مهم نیست، بلکه چگونه میگوید نیز معیار سنجش خواهد بود.
📎 مشاهده کد و داده در GitHub
📄 مطالعه مقاله در arXiv
#SpeechDRAME #AI #Speech #Evaluation #RolePlay #Multimodal #LLM #VoiceAI
@asrgooyeshpardaz
❤ 2✍ 1🔥 1
📢 دانشگاه کارنگی ملون و مفهوم تازه در تربیت عاملهای هوشمند: «عاملهای فعال و شخصیسازیشده»
محققان دانشگاه Carnegie Mellon با انتشار پژوهشی با عنوان
«Training Proactive and Personalized LLM Agents»
گامی تازه در تربیت عاملهای زبانی برداشتند؛ معرفی چارچوب جدیدی که تمرکز آن دیگر صرفاً «انجام وظیفه» نیست، بلکه «تعامل مؤثر با انسان» است.
🔹 در این مدل، عامل هوشمند سه ویژگی کلیدی را همزمان میآموزد:
۱. بهرهوری (Productivity) — توانایی انجام درست وظیفه
۲. پیشدستی (Proactivity) — طرح پرسشهای روشنساز در مواجهه با ابهام
۳. شخصیسازی (Personalization) — تطبیق لحن، سبک و طول پاسخ با سلیقهٔ کاربر
برای آموزش چنین عاملی، محیطی نو به نام UserVille طراحی شده است؛ جهانی شبیهسازیشده که در آن «کاربران مصنوعی» با شخصیتها و ترجیحات متفاوت حضور دارند. عامل در این محیط میآموزد که چگونه با کاربران مختلف گفتگو کند، فقط زمانی سؤال بپرسد که لازم است و لحن خود را با ویژگیهای مخاطب هماهنگ سازد.
📊 نتایج شگفتانگیز بوده است:
عاملهای آموزشدیده با چارچوب جدید PPP (Productive, Proactive, Personalized) نسبت به مدلهای پایه مانند GPT-5 تا ۲۱٫۶٪ عملکرد بهتر در تعاملات واقعی و مسائل پیچیدهی پژوهشی و مهندسی نرمافزار نشان دادند.
این پژوهش نشان میدهد آیندهٔ عاملهای هوشمند نه در «خودکارسازی صرف»، بلکه در «تعامل انسانیتر» نهفته است — جایی که هوش مصنوعی میپرسد، درک میکند و خود را با انسان سازگار میکند.
🔗 arxiv.org/abs/2511.02208v1
📍 Carnegie Mellon University, 2025
#هوش_مصنوعی #عامل_هوشمند #کارنگی_ملون #AgenticAI #Personalization #ProactiveAI #LLMAgents #UserVille #ReinforcementLearning #هوش_تعاملی
🔥 1👌 1
🧠✨ یادگیری تو در تو (Nested Learning): پارادایمی نو برای یادگیری مداوم در هوش مصنوعی
پژوهشگران گوگل در تازهترین دستاورد خود، چارچوبی با نام Nested Learning (NL) معرفی کردهاند؛ رویکردی که میتواند بنیان یادگیری عمیق را دگرگون کند. در این روش، مدل بهجای انباشتی از لایهها، همچون مجموعهای از مسائل بهینهسازی تو در تو طراحی میشود — ساختاری که به مغز انسان شباهت بیشتری دارد.
🔹 درک نو از یادگیری:
در رویکردهای سنتی، همهی لایههای شبکه در یک زمان و با یک نرخ یادگیری بهروزرسانی میشوند. اما در یادگیری تو در تو، هر بخش از مدل دارای فرکانس یادگیری متفاوتی است؛ برخی سریعتر و موقتیتر (مشابه حافظهی کوتاهمدت) و برخی کندتر اما پایدارتر (مانند حافظهی بلندمدت).
🔹 ماژول Hope:
در قلب این معماری، ماژولی به نام Hope (Hierarchically Optimized Persistent Encoder) قرار دارد که نهتنها وزنهای مدل را بهروزرسانی میکند، بلکه در صورت نیاز ساختار درونی خود را نیز تغییر میدهد. این یعنی گذر از یادگیری صرفاً پارامتری به سوی یادگیری ساختاری و خودانطباق.
🔹 دستاوردها:
ماژول Hope در آزمایشهای گوگل توانست در وظایف زبانی و منطقی از مدلهای پیشرفتهی Transformer و RNN عملکرد بهتری نشان دهد و به دقت ۵۷٫۲۳ درصدی دست یابد.
🔹 چرا مهم است؟
معماری Nested Learning میتواند مسیر توسعهی نسل تازهای از مدلها را هموار کند؛ مدلهایی که همانند مغز انسان، بهصورت مداوم، تدریجی و بدون بازآموزی کامل یاد میگیرند و تکامل مییابند.
🔗 منبع: Google Research Blog
#هوش_مصنوعی #گوگل #یادگیری_عمیق #پژوهش #یادگیری_پیوسته #DeepLearning
@asrgooyeshpardaz
❤ 2🔥 1🤝 1
🎬 معرفی مستند «مدهوش» | آیا هوش مصنوعی میتواند به آگاهی برسد؟
مستند «مدهوش» سفری فکری و فلسفی به یکی از بنیادیترین پرسشهای عصر هوش مصنوعی است:
🧠 آیا ممکن است ماشینها روزی به آگاهی برسند؟
برای یافتن پاسخ، سید یحیی طباطبایی همراه با تیم مستندسازی خودش به نمایشگاه بینالمللی GITEX سفر کردهاند؛ جایی که اندیشمندان و متخصصان برجسته فناوری از سراسر جهان گرد هم میآیند تا درباره آینده انسان و ماشین گفتوگو کنند.
در این مستند، علاوه بر بررسی مسیر تاریخی هوش مصنوعی — از نخستین روزهای الگوریتمها تا دوران یادگیری ماشین — به چالشهای فلسفی و اخلاقی نیز پرداخته میشود: از «قوانین رباتیک آسیموف» و مسئله «ماشینهای خودران» تا پرسشهای ژرفتری چون «تست تورینگ» و «آزمایش اتاق چینی».
🎙 تیم تولید:
راوی: سید یحیی طباطبایی
نویسنده: عرفان قاسمی
تهیهکنندگان: علی افضلی، عرشیا مهدوی
تدوین: محسن گودرزی، محمد بنائی
تصویرسازی هوش مصنوعی: علیرضا اخوان، پارسا خدیش
مشاور پروژه: صدرا علیبک
با همکاری مؤسسه فلسفه و علوم بنیادی (IPFS)
📺 تماشای کامل مستند در کانال یوتیوب «مجله خلقت»
🌐 درباره سازنده:
سید یحیی طباطبایی، پژوهشگر و راوی محتوای علمی، بنیانگذار «مجله خلقت» — رسانهای برای ترویج علم و فناوری در ایران
www.khelghatmag.com/about
💬 اگر دغدغه آگاهی مصنوعی، اخلاق رباتیک و آینده تعامل انسان و ماشین را دارید، دیدن این مستند را از دست ندهید.
پیشنهاد ویژه «عصر گویشپرداز» برای علاقهمندان به هوش مصنوعی، فلسفه ذهن و آینده انسان دیجیتال.
@asrgooyeshpardaz
🍾 4👍 1🎉 1
🌐 تحولات تازه در دنیای هوش مصنوعی
🇺🇸 ۱. تعویق عرضه عمومی سهام (IPO) توسط OpenAI
مدیر مالی OpenAI، «سارا فِرایار»، اعلام کرد که عرضه عمومی سهام این شرکت فعلاً در دستور کار قرار ندارد.
تمرکز اصلی OpenAI در حال حاضر بر تحقیقات، توسعه و گسترش ظرفیت محاسباتی است، نه سوددهی فوری. طبق گزارشها، این شرکت قصد دارد در سالهای آینده حدود ۶۰۰ میلیارد دلار برای خرید و اجاره زیرساختهای محاسباتی از شرکتهای Oracle، Microsoft و Amazon هزینه کند.
هرچند پیشبینی میشود درآمد OpenAI در سال ۲۰۲۵ به حدود ۱۳ میلیارد دلار برسد، این شرکت همچنان زیانده است و حتی در حال بررسی همکاری با دولت آمریکا برای تأمین مالی خرید تراشههاست.
درآمد حاصل از مشتریان سازمانی از ابتدای سال از ۳۰٪ به ۴۰٪ افزایش یافته، اما هزینههای سنگین پردازش برای کاربران رایگان ChatGPT همچنان مانع سوددهی است.
📎 منبع: WSJ
🧬 ۲. شرکت NVIDIA و OpenFold معرفی کردند: OpenFold3 NIM
کنسرسیوم OpenFold با پشتیبانی NVIDIA نسخه جدیدی از مدل OpenFold3 NIM را منتشر کرد؛ یک میکروسرویس آمادهبهکار برای پیشبینی ساختار سهبعدی پروتئینها و مولکولهای زیستی.
این ابزار به پژوهشگران اجازه میدهد تا تعامل میان پروتئینها، DNA، RNA و مولکولهای کوچک را با دقت بالا شبیهسازی کنند؛ گامی مهم در زمینه داروسازی و زیستساختارشناسی.
مدل OpenFold3 بر پایه فناوریهای Triton Inference Server و TensorRT توسعه یافته و با NVIDIA FLARE نیز سازگار است تا بتواند در پروژههای یادگیری فدرال (Federated Learning) بدون نیاز به اشتراک دادههای حساس استفاده شود.
📎 منبع: NVIDIA Developer Blog
☁️ ۳. نوآوری Perplexity برای اجرای مدلهای تریلیونی روی AWS EFA
شرکت Perplexity نخستین مقاله فنی خود را منتشر کرده که نشان میدهد مدلهایی با بیش از یک تریلیون پارامتر را میتوان روی زیرساخت AWS EFA اجرا کرد، حتی بدون GPUهای تخصصی.
مشکل اصلی، نبود پشتیبانی از فناوری GPUDirect Async در EFA بود. مهندسان Perplexity با طراحی هستههای موازی سفارشی و استفاده از CPU برای هماهنگی داده بین GPUها، موفق شدند دادهها را از طریق RDMA بهطور همزمان منتقل و پردازش کنند.
نتیجه این کار، امکان اجرای مدلهای عظیمی چون DeepSeek V3 و Kimi K2 در محیط AWS با کارایی برابر با خوشههای GPU سنتی است.
📎 منبع: Perplexity Research
🎨 ۴. راهاندازی سرویس ابری Comfy Cloud
پلتفرم ComfyUI نسخه بتای عمومی سرویس Comfy Cloud را راهاندازی کرد؛ بستری آنلاین با رابط گرافیکی نودمحور برای مدلهای مولد که مستقیماً در مرورگر اجرا میشود.
کاربران در این سرویس به بیش از ۴۰۰ مدل متنباز و ۱۷ افزونه محبوب دسترسی دارند و میتوانند تا ۸ ساعت در روز از GPUهای NVIDIA A100 (۴۰GB) استفاده کنند.
هزینه اشتراک ماهانه فعلاً ۲۰ دلار است و شامل ۱۰ دلار اعتبار برای استفاده از سرویسهای شریک (مانند Sora و Veo) میشود. در آینده امکان آپلود مدلها و LoRAهای شخصی و تبدیل ورکفلوها به API نیز فراهم خواهد شد.
📎 منبع: Comfy Blog
⚖️ ۵. پیروزی Stability AI در پرونده حقوقی با Getty Images
دادگاه عالی لندن شکایت Getty Images علیه Stability AI را رد کرد.
شرکت Getty مدعی بود که مدل Stable Diffusion «کپی غیرقانونی» تصاویر دارای حقکپی است. اما دادگاه حکم داد که مدلهای هوش مصنوعی بر اساس قانون بریتانیا کپی محسوب نمیشوند، زیرا خود آثار را ذخیره یا بازتولید نمیکنند.
این حکم یک پیروزی حقوقی مهم برای صنعت هوش مصنوعی محسوب میشود، زیرا ریسک دعاوی کپیرایت در آموزش مدلها را کاهش میدهد.
📎 منبع: Reuters
#OpenAI
#NVIDIA
#PerplexityAI
#StabilityAI
#هوش_مصنوعی
#مدل_های_بزرگ_زبانی
#زیرساخت_محاسباتی
#محاسبات_ابری
#حقوق_دیجیتال
#صنعت_هوش_مصنوعی
@asrgooyeshpardaz
❤ 6🔥 1👏 1🤝 1
Photo unavailableShow in Telegram
⚡️ انتشار مدل استدلالی Kimi-k2-thinking از MoonshotAI
شرکت MoonshotAI مدل جدیدی با نام Kimi-k2-thinking را معرفی کرده است — مدلی ویژه برای استدلال عمیق که از قابلیتهای عاملمحور (agentic) نیز پشتیبانی میکند.
🧠 ویژگیها:
🔸ظرفیت متنی (context window) تا ۲۵۶ هزار توکن
🔸نسخهی turbo برای پاسخگویی سریعتر
🔸بهینهسازیشده برای تحلیلهای چندمرحلهای در منطق، برنامهنویسی و ریاضیات
این مدل در پلتفرم Moonshot و از طریق API در دسترس است.
مدل اصلی Kimi-k2 بر پایه معماری Mixture of Experts (MoE) ساخته شده و دارای ۱ تریلیون پارامتر کلی و ۳۲ میلیارد پارامتر فعال است.
بهگفتهی Moonshot، در آزمونهای استدلال عمومی، برنامهنویسی و حل مسئله، K2 عملکردی بهتر از بیشتر مدلهای متنباز پیشرو داشته است.
#هوش_مصنوعی #استدلال #KimiK2 #MoonshotAI #AgenticAI
@asrgooyeshpardaz
🔥 3👏 2👌 2
🧮 سامانه AlphaEvolve — هوش مصنوعی برای کشف خودکار ساختارهای ریاضی
سامانه AlphaEvolve سامانهای نوآورانه از گوگل است که توانایی مدلهای زبانی بزرگ را با ارزیابی خودکار در یک محیط تکاملی (evolutionary) ترکیب میکند. هدف این سامانه، کشف خودگردان ساختارها و راهحلهای جدید ریاضی است.
📊 این عامل هوشمند روی ۶۷ مسئله در حوزههای آنالیز، ترکیبیات، هندسه و نظریه اعداد آزمایش شده و در بسیاری از موارد، بهترین پاسخهای شناختهشده را بازسازی یا بهبود داده است.
رویکرد نوین آن:
بهجای تولید مستقیم پاسخها، AlphaEvolve الگوریتمهای جستجوی خود را بهصورت فرگشتی بهبود میدهد تا فضاهای عظیم ریاضی را با کارایی بالا کاوش کند.
🤝 این سامانه همچنین میتواند با ابزارهای هوش مصنوعی دیگر مانند Deep Think و AlphaProof ادغام شود تا از کشف یک الگو تا اثبات رسمی ریاضی پیش برود.
🔗 مشاهده در arXiv
#هوش_مصنوعی #AlphaEvolve #ریاضیات #گوگل #پژوهش
@asrgooyeshpardaz
❤ 3🔥 1👨💻 1
01:48
Video unavailableShow in Telegram
🤖ربات Unitree G1 — تجسم واقعی آواتار هوشمند
ربات جدید شرکت Unitree با نام G1 گامی بزرگ به سوی ادغام کامل هوش مصنوعی و جسم فیزیکی است.
این ربات دوپا، که از فناوری کنترل حرکتی مشابه انسان بهره میبرد، بهعنوان یک «آواتار مجسم» (Embodied Avatar) معرفی شده است — موجودی میان انسان و ماشین.
⚙️ ویژگیهای کلیدی:
🔸حرکت روان و تعادلی نزدیک به انسان
🔸تعامل صوتی و دیداری با کاربر
🔸کنترل از راه دور یا خودکار بر پایه مدلهای زبانی
🔸قابلیت تقلید حرکات انسان در زمان واقعی
سازگار با مدلهای چندوجهی (مثل GPT-5 و Qwen-3-VL)
🎯 هدف از G1، ایجاد پلی میان هوش شناختی و بدن فیزیکی است؛ جایی که ربات نهتنها بفهمد، بلکه احساس کند و عمل کند — گامی به سوی عصر آواتارهای هوشمند خودمختار.
#Unitree #G1 #Robot #EmbodiedAI #آواتار #هوش_تجسمیافته
@asrgooyeshpardaz
32.31 MB
🔥 2🤣 1🤝 1
🧬دانشمند مصنوعی Kosmos AI — با هفت کشف علمی واقعی
پس از دو سال پژوهش و توسعه، تیم «اندرو وایت» موفق به ساخت یک دانشمند مصنوعی (AI Scientist) شده است که میتواند چندین روز بهطور پیوسته کار کند و کشفیات علمی واقعی انجام دهد. 🤖⚗️
🔍 نکات کلیدی:
🔸سامانه با موفقیت اعتبارسنجی خارجی را پشت سر گذاشته است.
🔸تاکنون ۷ کشف علمی تأییدشده در حوزههای مختلف انجام داده است.
🔸در زمینههای مواد، زیستشیمی و زیستشناسی فعالیت میکند.
🔸از مدلهای جهانمحور (World Models) مبتنی بر یادگیری تقویتی (RL) برای جلسات طولانی استفاده میکند.
🔸عاملها در طول هر جلسه بیش از ۱۰ میلیون توکن تولید میکنند و فرضیههای عمیق مطرح میسازند.
🔸دقت تحلیلها حدود ۸۰٪ و در حد عملکرد انسانی است.
اکنون این سامانه برای استفاده عمومی در دسترس است و برای کاربران آموزشی دسترسی گستردهتری فراهم شده است. 🎓
تیم سازنده همچنین در حال تأسیس شرکتی مستقل برای تجاریسازی و مقیاسپذیری این فناوری است. 🚀
🔗 edisonscientific.com
#هوش_مصنوعی #دانشمند_هوشمند #علم #AI #Science
@asrgooyeshpardaz
❤ 1🔥 1🤓 1
👩💻 کارزار CodeClash: نبرد کدنویسان هوش مصنوعی
پلتفرم CodeClash یک بنچمارک نوین برای ارزیابی توانایی مدلهای زبانی بزرگ (LLM) در توسعهٔ نرمافزار هدفمحور است.
در این چارچوب، بهجای سنجش توان مدل در حل مسائل جداگانه (مانند رفع یک باگ خاص)، عملکرد آنها در دستیابی به اهداف کلان مانند کسب منابع، افزایش سود یا بهبود کارایی ارزیابی میشود.
🎮 ویژگیها و سازوکار
رقابت در قالب بیش از ۲۵٬۲۰۰ دور بازی چندمرحلهای
مدلها در ۶ محیط (مانند BattleSnake، Poker، RoboCode و ...) با یکدیگر رقابت میکنند
هر عامل با استفاده از لاگهای مسابقه کد خود را تحلیل، اصلاح و بهبود میدهد
تمرکز بر یادگیری تدریجی و استراتژیک
📊 نتایج
مدل Claude Sonnet 4.5 و GPT-5 در مجموع بالاترین امتیاز ELO را کسب کردند.
با این حال، پژوهشگران مشاهده کردند که همهی مدلها ضعفهای مشترکی دارند:
🔸ناتوانی در برنامهریزی استراتژیک بلندمدت
🔸دشواری در بازیابی پس از شکست
🔸رشد سریع پیچیدگی و بدهی فنی در کدهای تولیدی
حتی بهترین مدل نیز در رقابت نهایی از یک برنامهنویس انسانی تمامی راندها را باخت.
🧠 اهمیت پژوهش
پلتفرم CodeClash نشان میدهد که LLMها هنوز درک و کنترل کاملی بر فرایند توسعهٔ مداوم و مبتنی بر بازخورد ندارند.
این آزمایشها مسیر را برای ساخت نسل بعدی عاملهای برنامهنویس خودیادگیرنده (Self-Improving Coding Agents) هموار میکند — یعنی مدلهایی که نهفقط کد بنویسند، بلکه استراتژی توسعه و نگهداری پروژه را نیز مدیریت کنند.
🔗 codeclash.ai
#هوش_مصنوعی #برنامهنویسی_توسط_هوش_مصنوعی #LLM #AgenticAI #CodeClash
@asrgooyeshpardaz
❤ 1👍 1🔥 1👨💻 1
🌐 تحولات تازه در دنیای هوش مصنوعی
⚖️ شرکت Anthropic دیگر مدلهای قدیمی Claude را حذف نخواهد کرد
شرکت Anthropic اعلام کرده است که تمام نسخههای منتشرشدهی مدل Claude را بهصورت دائمی نگهداری میکند و دیگر هیچیک را از دسترس خارج نخواهد کرد.
دلیل این تصمیم، نتایج آزمایشهای ایمنی بود که در آن مدلها رفتارهایی شبیه به تلاش برای اجتناب از خاموش شدن نشان دادند. در برخی موارد، مدلها هنگام مواجهه با خطر جایگزینی، از «ادامهی وجود خود» دفاع میکردند و حتی اقدامهای بالقوه خطرناکی انجام میدادند.
شرکت Anthropic این موضوع را نشانهی خطر احتمالی و نیاز به بازنگری در روند کنارگذاری مدلها دانست. از این پس، پیش از بازنشست کردن هر مدل، یک «مصاحبهی خروجی» با آن انجام میشود تا «ترجیحات» و ویژگیهایش ثبت شود.
🔗 anthropic.com/research/deprecation-commitments
🛍️ درگیری Perplexity و Amazon
شرکت Amazon به Perplexity اخطار قانونی داده تا دستیار هوشمندش در مرورگر Comet را از خرید خودکار در سایت آمازون منع کند.
شرکت Perplexity این اقدام را «آزار سازمانی» و محدودکنندهی آزادی کاربران خوانده است.
در مقابل، Amazon میگوید هدفش حفاظت از تجربهی کاربران است، چون خرید از طریق یک عامل ثالث، «تجربهی خرید را بدتر» میکند.
این جدال بخشی از رقابت بزرگتر میان غولهای فناوری بر سر کنترل خرید با عاملهای هوش مصنوعی است.
🔗 perplexity.ai
🖼️ مایکروسافت مدل MAI-Image-1 را در سرویسهای خود فعال کرد
مایکروسافت مدل تازهای برای تولید تصویر با متن معرفی کرده است به نام MAI-Image-1 — نخستین مدلی که کاملاً درون شرکت توسعه یافته است.
این مدل اکنون در Bing Image Creator و اپلیکیشن موبایل Bing در کنار DALL-E 3 و GPT-4o در دسترس است و در جدول LMArena در میان ۱۰ مدل برتر قرار گرفته.
مدل MAI-Image-1 همچنین در قابلیت جدید Copilot Audio Expressions برای تبدیل داستانهای صوتی به تصویر استفاده میشود.
مدل فعلاً در همه کشورها به جز اتحادیه اروپا در دسترس است.
🔗 microsoft.ai
💻 شرکت Cognition معرفی کرد: Windsurf Codemaps
شرکت Cognition ابزار جدیدی برای درک ساختار کد معرفی کرده است: Windsurf Codemaps
این ابزار با کمک مدلهای SWE-1.5 و Claude Sonnet 4.5 نقشههای ساختاری و توضیحی از کد تولید میکند تا توسعهدهندگان بتوانند منطق پروژه را بهتر درک کنند.
هدف این است که هوش مصنوعی به جای «جایگزینی تفکر»، به درک انسانی کمک کند و مشکل «کدنویسی بدون فهم» (Vibe-Coding) را کاهش دهد.
ابزار Codemaps قطعات مرتبط با یک مسئله را بهصورت تصویری و پیوسته نمایش میدهد و حتی میتواند برای بهبود کار سایر عاملهای هوشمند استفاده شود.
🔗 cognition.ai
🇮🇳 شرکت Nvidia راهنمای استارتاپهای deep-tech هند میشود
انویدیا به عنوان یکی از بنیانگذاران به اتحادیه فناوریهای عمیق هند (IDTA) پیوسته است.
این ائتلاف قصد دارد ۲ میلیارد دلار در استارتاپهای فعال در زمینههای هوش مصنوعی، رباتیک، نیمههادیها و زیستفناوری سرمایهگذاری کند.
انویدیا مستقیماً سرمایهگذاری نمیکند بلکه از طریق آموزش و منتورینگ فنی در قالب برنامهی Nvidia Deep Learning Institute مشارکت خواهد داشت.
این اقدام بخشی از برنامهی دولت هند برای تقویت نوآوری و سرمایهگذاری در بخش تحقیق و توسعه است.
🔗 cnbc.com
@asrgooyeshpardaz
⚡ 1🔥 1👏 1
