صفحه اصلیتوت بلاگهوش مصنوعی و گلوگاه!

هوش مصنوعی و گلوگاه!

علی جوان

علی جوان

آخرین ویرایش :  ۱۴۰۴/۴/۲۵

زمان مطالعه:  11دقیقه

هوش مصنوعی و گلوگاه!

چالش اصلی هوش مصنوعی: گلوگاه سخت‌افزاری در برابر نرم‌افزار پیشرفته!

اصلی‌ترین چالش حال حاضر هوش مصنوعی، پدیده گلوگاه میان نرم‌افزار و سخت‌افزار است!  مدل‌های زبانی بزرگ (LLMs)  در حال حاضر از پرتقاضاترین مدل‌های هوش مصنوعی محسوب می‌شوند و به نوعی انقلاب نوین هوش مصنوعی را میان کاربران اینترنت رقم زده‌اند. تعداد کاربران جدید به ‌صورت مکرر در حال افزایش است و در نتیجه چالش مقیاس‌پذیری دائماً دشوارتر می‌شود.

مدل‌های زبانی امروزی به شکل غیرقابل تصوری بزرگ شده‌اند. مدل‌هایی با صدها میلیارد یا حتی تریلیون‌ها پارامتر، مانند مدل‌های خانواده GPT  یا Gemini، برای آموزش و اجرا به توان پردازشی فوق‌العاده بالایی نیاز دارند. این رشد نمایی در اندازه مدل‌ها، سریع‌تر از رشد توان پردازشی سخت‌افزارهای موجود می‌باشد.

 

شکاف میان پیشرفت نرم‌افزار و قابلیت‌های سخت‌افزار

در حالی که شرکت‌های بزرگ فناوری نیمه‌هادی مانند انویدیا، در حال تولید و طراحی معماری‌های پیشرفته و تخصصی پردازشی برای هوش مصنوعی هستند، اما همچنان گپ میان نرم‌افزار و سخت‌افزار زیاد است!  حتماً تجربه کرده‌اید: در حال چت و پرسیدن سؤال از گوگل جیمینای هستید و با سرعت، پاسخ‌های متنی تولید شده در لحظه را دریافت می‌کنید. حال درخواست تولید یک تصویر می‌کنید و ناگهان اعلان "عدم توانایی تولید تصویر به دلیل تقاضای بالای موقت"  دریافت می‌کنید و یا در به‌ترین حالت باید چند ثانیه و حتی دقیقه برای تولید عکس صبر کنید.

از نظر الگوریتمی/نرم‌افزاری، مدل‌های پیشرفته قادرند که به ‌صورت یک‌پارچه، نمایش‌های داخلی (internal representations)   برای متن و تصویر را تولید کنند. اما ترجمه این نمایش‌های داخلی به پیکسل‌های یک تصویرنهایی و رمزگشایی آن،  یک عملیات محاسباتی بسیار سنگین است. به همین دلیل است که تولید متن تقریباً فوری است، اما تولید تصویر به چند ثانیه یا بیشتر زمان نیاز دارد. این گلوگاه (Bottleneck) دقیقاً یک محدودیت سخت‌افزاری است، نه نرم‌افزاری.

 

حافظه پردازنده چالش پنهان در اکوسیستم سخت‌افزار

چالش بعدی سخت‌افزاری، میزان نامناسب حافظه پردازنده است!  پردازنده‌های گرافیکی (GPU) و پردازنده‌های تخصصی هوش مصنوعی مانند TPU  تنسورهای گوگل که برای اجرای این مدل‌ها استفاده می‌شوند، به حافظه‌ای با سرعت و پهنای باند و ظرفیت بسیار بالا نیاز دارند تا بتوانند پارامترهای عظیم مدل‌های مذکور را به ‌سرعت در دسترس هسته‌های پردازشی قرار دهند. در حال حاضر، ظرفیت و پهنای باند حافظه، حتی در پیشرفته‌ترین تراشه‌ها، یک عامل محدودکننده جدی است.  این امر نشان می‌دهد که حتی در داخل یک اکوسیستم یکپارچه سخت‌افزاری نیز گلوگاه جدی وجود دارد و همه این‌ها به دلیل پیشرفته بودن نرم‌افزار و حجم تقاضای بالای کاربران است.

 

راه‌حل‌های مقطعی 

راه‌حل‌های حاضر، در به‌ترین حالت، فقط قادرند برای مدتی محدود مشکلات را کاهش دهند.  متأسفانه، میزان شفافیت‌پذیری (Transparency)  مدل‌های زبانی نیز در حد مناسبی قرار ندارد.

 

شتاب‌دهنده‌های تخصصی و معماری‌های نوین

یکی از رویکردهای اصلی، توسعه شتاب‌دهنده‌های تخصصی/پردازنده‌های تخصصی  (Coprocessors) است. شرکت‌هایی مانند گوگل با واحدهای پردازش تنسور  (TPUs) و استارتاپ‌های متعددی نظیرCerebras  وSambaNova  در حال ساخت تراشه‌هایی هستند که از ابتدا به ‌صورت تخصصی فقط برای محاسبات خاص هوش مصنوعی طراحی شده‌اند. این تراشه‌ها معمولاً در وظایف خاص، بهره‌وری انرژی و عملکرد به‌تری نسبت به GPUs (واحد پردازش گرافیکی عمومی) دارند.

در کنار این، تحقیقات بر روی معماری‌های نوین در جریان است. رویکردهایی مانند پردازش در حافظه (Processing-in-Memory)  و پردازش نوری (Optical Computing) پتانسیل ایجاد یک جهش بزرگ در توان پردازشی و در نتیجه کاهش گلوگاه و مصرف انرژی را دارند. با این حال، باید گفت که حتی این پیشرفت‌ها نیز تضمین‌کننده حقیقی حل چالش نیستند!  زیرا میزان تقاضا به ‌صورت غیرقابل کنترلی در حال افزایش است. اگر امروز باتوجه به چالش‌های کنونی و گذشته و با یک پیش‌بینی حدودی از آینده، یک سخت‌افزار جدید طراحی و تولید شود، به هنگام عرضه و پیاده‌سازی آن، ممکن است تمامی معادلات برای تشخیص سخت‌افزار مناسب، به دلیل رشد بی‌رویه تقاضا، شکست بخورد.

 

استراتژی‌های شرکت‌های فناوری: تعادل بین دسترسی رایگان و مدل‌های اشتراکی

در آینده‌ای نزدیک، ممکن است شاهد یک استراتژی موقت، اشتراکی کردن ویژگی‌های عمومی باشیم، کما آن‌که هم‌اکنون نیز شاهد هستیم!، تا حداقل بتوان یک توازنی میان عرضه و تقاضا ایجاد کرد. اما فعلاً، ارائه هرچه بیشتر امکانات هوش مصنوعی به‌ صورت رایگان به کاربر، سود بیشتری برای شرکت ارائه‌دهنده دارد. در نتیجه، اولویت فعلی شرکت‌های فناوری صرفاً بر ارائه ویژگی‌های هوش مصنوعی تا حد امکان به‌صورت رایگان است.  هدف این است که پس از جذب اعتماد کافی و جا افتادن پدیده هوش مصنوعی در هر نوع محصول فناوری جدید، با تبلیغات روانی حرفه‌ای در آینده، ویژگی‌های متعدد رایگان را به ‌آرامی تبدیل به ویژگی‌های اشتراکی کنند؛ اغلب با بهانه‌هایی مانند "پیشرفته‌ترین مدل چندوجهی!" یا دسترسی به قابلیت‌های برتر.

 

توانایی‌های چندوجهی هوش مصنوعی و محدودیت‌های سخت‌افزاری

همان‌گونه که ذکر شد، در حال حاضر مدل‌های نرم‌افزاری زبانی بزرگ قادرند به ‌صورت بسیار پیشرفته پاسخ سؤالات و درخواست‌های شما را تولید کنند. برای مثال، آن‌ها به‌سادگی توانایی بالقوه این را دارند که به ‌صورت چندوجهی و هم‌زمان، در ارائه پاسخ به درخواست شما، متن و عکس را با سرعت یکسان تولید کنند.

اما محدودیت‌های سخت‌افزاری حال حاضر اجازه نمی‌دهد!  و در نتیجه، صرفاً کاربران اشتراکی قادر به تجربه محدود از ویژگی‌های چندوجهی هستند. این نشان می‌دهد که توانایی‌های نرم‌افزاری هوش مصنوعی فراتر از زیرساخت‌های سخت‌افزاری کنونی است و دستیابی به پتانسیل کامل آن نیازمند جهش‌های کلیدی آتی در سخت‌افزار خواهد بود.

 

تأثیرات مدل‌های زبانی بزرگ بر زیرساخت اینترنت

ما در حال گذار از یک اکوسیستم "لیست لینک‌ها" به یک اکوسیستم "پاسخ مستقیم و ترکیبی" هستیم.  این تغییر یک تحول بنیادی است و مدل‌های زبانی متصل به اینترنت (مانند AI Overviews در جستجوی گوگل) در مرکز این دگرگونی قرار دارند.

 چالش بعدی مدل‌های زبانی بزرگ متصل به اینترنت، مانند گوگل جیمینای، ایجاد اختلالات جزئی در شبکه اینترنت جهانی است!  این مدل‌ها، در هر نتیجه جستجوی کاربران مناطق غیرتحریم، برای تولید پاسخ مرتبط با موضوع جستجو، سایت‌های مختلف را به ‌سرعت تحلیل و داده‌های مناسب را استخراج می‌کنند.  البته این امر همیشه اتفاق نمی‌افتد و در درصد بسیار بالایی از مواقع، آن‌ها از نتایج ایندکس‌شده پایگاه داده خودشان استفاده می‌کنند.

اما قرارگیری داده‌های معتبر جدید در اینترنت نیازمند ایندکس شدن مجدد است. این عملیات به‌ ظاهر ساده، در مقیاس بسیار بالا، به میزانی تقریباً نامشخص و کاملا شفاف، پهنای باند اینترنت را درگیر می‌کند!  این فعالیت، به ‌صورت جدی و تخصصی، زیرساخت‌های اصلی موتورهای جستجو مانند خود گوگل را بیش از پیش درگیر می‌کند.

 

در کلام پایانی باید گفت، انقلاب کنونی هوش مصنوعی پدیده‌ای کاملاً تازه نیست. در واقع، سال‌هاست که این فناوری به صورت خصوصی در دست شرکت‌های مختلف فناوری در حال توسعه و مصرف بوده است و هم‌چنان نسخه‌های جدید آن نیز به صورت خصوصی در دست بررسی است، اما ورود عمومی و همه‌گانی این فناوری به زندگی روزمره ما کاربران، عامل اصلی شکل‌گیری چالش‌های اساسی کنونی شده است.

من معتقدم که انقلاب حاضر لزوماً انقلاب هوش مصنوعی به تنهایی نیست! ، بلکه، انقلاب واقعی در جهش و تغییرات بنیادی و اجباری سخت‌افزارهای پردازشی نهفته است. این پردازنده‌ها در حال نزدیک شدن به اوج تکامل خود هستند. می‌توانم با اطمینان بگویم، تا یک دهه آینده، پردازنده‌های نیمه‌هادی و به عبارتی پردازنده‌های کلاسیک، به محدودیت‌های فیزیکی خود رسیده و به نقطه تکامل نهایی خود دست خواهند یافت.

با ورود عمومی پردازنده‌ها و سخت‌افزارهای کوانتومی به دست کاربران، اهمیت این تحول سخت‌افزاری بیش از پیش آشکار خواهد شد. در آن زمان، به‌تر درک خواهید کرد که چرا تحول و انقلاب فناوری‌های امروزی در درجه اول وجه سخت‌افزاری دارد و نه صرفاً نرم‌افزاری!، پیشرفت‌های خیره‌کننده در نرم‌افزارهای هوش مصنوعی، بدون زیربنای قدرتمند و در حال تکامل سخت‌افزاری، هرگز به این نقطه نمی‌رسیدند. این یک هم‌افزایی است که سخت‌افزار نقش موتور محرکه اصلی را ایفا می‌کند.

 

با احترام و ارادت.

آرزوی موفقیت دارم برای تمام آن افرادی که به‌ واقع، به‌ دنبال رسیدن به مقاصد سفید میباشند.

برچسب ها:

هوش مصنوعیمدل های زبانی بزرگسخت افزارپردازندهداده های بزرگbig dataیادگیری ماشینMLAIنرم افزار

بخش نظرات

لطفا برای ثبت نظر خود، در سایت لاگین کنید!
ورود
هنوز نظری ثبت نشده!
اولین نفر باشید که نظر خود را ثبت می‌کنید.