هوش مصنوعی با شتابدهندههای تازه کوالکام، ۱۰ برابر سریعتر شد
به گزارش تهران بهشت، تراشههای جدید کوالکام با ۱۰ برابر پهنای باند و ۷۶۸ گیگابایت حافظه، آینده پردازش هوش مصنوعی در مراکز داده را متحول میکنند.
به گزارش نیواطلس، کوالکام با معرفی شتابدهندههای جدید هوش مصنوعی خود با نامهای AI۲۰۰ و AI۲۵۰، گامی بزرگ در جهت افزایش سرعت، بهرهوری و مقیاسپذیری پردازش مدلهای زایا (Generative AI) در مراکز داده برداشته است.
قدرت در مقیاس انبوه
مدل AI۲۰۰ بهطور ویژه برای پردازش مدلهای زبانی بزرگ و چندوجهی طراحی شده و هر کارت آن از ۷۶۸ گیگابایت حافظه LPDDR پشتیبانی میکند که امکان مقیاسپذیری بالا و انعطاف در پردازش حجم عظیمی از دادهها را فراهم میسازد.
در مقابل، مدل AI۲۵۰ با معماری جدید «محاسبه نزدیک به حافظه» (Near-Memory Computing) عرضه میشود که به گفته کوالکام، بیش از ۱۰ برابر پهنای باند مؤثر حافظه بیشتر و مصرف انرژی کمتر دارد. این نوآوری باعث میشود سختافزارها بهصورت بهینهتر و با هزینه کمتر مورد استفاده قرار گیرند.
هر دو سیستم از خنککننده مایع مستقیم برای کارایی حرارتی بالا و رابطهای PCIe و Ethernet برای مقیاسپذیری بیشتر بهره میبرند. توان مصرفی در سطح رک حدود ۱۶۰ کیلووات است، که نشاندهنده عملکردی در سطح زیرساختهای ابرمقیاس با تمرکز بر پایداری و بهینهسازی عملیاتی است.
یکپارچگی نرمافزاری و سازگاری گسترده
«در کوالکام با سری AI۲۰۰ و AI۲۵۰، تعریف تازهای از توان پردازش هوش مصنوعی در مقیاس رک ارائه کردهایم»،
«دورگا مالادی»، معاون ارشد کوالکام در حوزه فناوری لبه و مراکز داده گفت. او افزود این زیرساخت جدید، اجرای مدلهای هوش مصنوعی زایا را با هزینه کل مالکیت (TCO) بیسابقهای ممکن میسازد.
این پلتفرم با پشتیبانی از اکوسیستم باز نرمافزاری کوالکام، امکان ادغام آسان مدلهای از پیش آموزشدیده، مدیریت مقیاسپذیر و استقرار یککلیکی را فراهم میکند. همچنین از کتابخانه «Efficient Transformers» و مجموعه ابزار «AI Inference Suite» پشتیبانی میکند تا توسعهدهندگان بتوانند مدلهای خود را مستقیماً از پلتفرمهایی مانند Hugging Face بارگذاری کنند.
نقشه راه آینده
کوالکام اعلام کرد مدل AI۲۰۰ در سال ۲۰۲۶ و مدل پیشرفتهتر AI۲۵۰ در ۲۰۲۷ به بازار عرضه خواهند شد. این شرکت قصد دارد هر سال نسل جدیدی از محصولات مرکز داده خود را معرفی کند که بر افزایش کارایی، بهرهوری انرژی و بهبود مستمر در استنتاج هوش مصنوعی (AI Inference) تمرکز دارند.
انتهای پیام/


ارسال نظر