اخبار تکنولوژی : مدل هوش مصنوعی TRM سامسونگ، جمینای و ChatGPT را به زانو درآورد


متن خبر :

بخش هوش مصنوعی شرکت سامسونگ با ارائه یک مدل انقلابی، باوری ریشه‌دار در صنعت فناوری مبنی بر اینکه مدل‌های بزرگتر لزوماً بهتر عمل می‌کنند را به طور جدی به چالش کشیده است. این شرکت اخیراً جزئیات معماری یک مدل هوش مصنوعی جدید و کوچک به نام Tiny Recursive Model یا TRM را منتشر کرده که با وجود ابعاد بسیار کوچکتر، موفق شده است برخی از بزرگترین مدل‌های زبان بزرگ جهان (LLMs) را در آزمون‌های استدلال منطقی شکست دهد.

به گزارش بخش توسعه رسانه اخبار تکنولوژی و فناوری تکنا، این مدل که تنها از یک شبکه دو لایه‌ای تشکیل شده است با استفاده از رویکردی نوآورانه به نام استدلال بازگشتی، خروجی‌های خود را برای تعیین مراحل بعدی پردازش به کار می‌گیرد و یک حلقه بازخورد خودبهبود را شکل می‌دهد. این فرآیند به مدل اجازه می‌دهد تا بدون نیاز به حافظه و هزینه‌های محاسباتی سنگین، عملکرد یک معماری بسیار عمیق‌تر را شبیه‌سازی کند و به نتایج شگفت‌انگیزی دست یابد.

عملکرد خیره‌کننده مدل TRM سامسونگ در معیارهای سخت‌گیرانه‌ای مانند پازل‌های Sudoku-Extreme و Maze-Hard و به ویژه در بنچمارک معتبر ARC-AGI به اثبات رسیده است. این مدل توانست به دقت ۸۷.۴ درصدی در حل سودوکو و ۸۵ درصدی در حل پازل‌های پیچیده ماز دست یابد. مهم‌تر از آن TRM در آزمون ARC-AGI-1 به دقت ۴۵ درصد و در نسخه دشوارتر آن یعنی ARC-AGI-2 به دقت ۸ درصد رسید.

این نتایج از آن جهت اهمیت دارد که مدل TRM به شکل قابل توجهی از رقبای بسیار بزرگتر خود مانند DeepSeek R1 و Gemini 2.5 Pro گوگل و o3-mini شرکت OpenAI پیشی گرفته است در حالی که تنها از کسری از پارامترهای آن‌ها استفاده می‌کند. این موفقیت نشان می‌دهد که رویکرد سامسونگ که مشابه بازخوانی و اصلاح پیش‌نویس توسط یک انسان است در حل مسائل منطقی بسیار برتر از روش‌های متداول عمل می‌کند.

این دستاورد سامسونگ یک پیام روشن برای صنعت هوش مصنوعی دارد و آن این است که سادگی و کارایی می‌تواند بر پیچیدگی و ابعاد غلبه کند. مدل‌های زبان بزرگ فعلی اغلب در مواجهه با مسائل منطقی شکننده هستند و یک خطای کوچک در زنجیره استدلال می‌تواند کل فرآیند را مختل کند.

در مقابل روش بازگشتی مدل TRM با تکرار و اصلاح مداوم، این ضعف را برطرف می‌سازد. محققان سامسونگ حتی دریافتند که افزایش لایه‌های این مدل به دلیل پدیده بیش‌برازش یا overfitting منجر به کاهش عملکرد آن می‌شود که این خود تاکیدی بر اصل “کمتر، بیشتر است” در این معماری خاص است. موفقیت TRM ثابت می‌کند که الگوریتم‌های هوشمندتر و بهینه‌تر می‌توانند جایگزین قدرت محاسباتی خام شوند و مسیر آینده توسعه هوش مصنوعی را به سمت مدل‌های تخصصی‌تر و کارآمدتر هدایت کنند.


Source link

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

👤 آنلاین: 0
📢 خبر