نقش روزافزون هوش مصنوعی در انواع حوزهها از قبیل آموزش، بهداشت و سلامت، حملونقل، مالی، سرگرمی، امنیت داخلی و بینالملی سبب شده است که این فناوری روزبهروز از اهمیت بیشتری در بین ملتها و دولتها برخوردار شود. موفقیتهای کسبشده در حوزهی تکنیکهای هوش مصنوعی در سالهای گذشته، متکی بر محاسبات در مقیاس کلان و پرداخت هزینههای سنگین بوده است. لازم به ذکر است بعضا محاسبات لازم برای آموزش الگوریتمهای هوش مصنوعی نیازمند صرف حدود یک ماه زمان و پرداخت صدها میلیون دلار هزینه است. برای انجام این محاسبات باید از ریزتراشههایی استفاده شود که با بهرهگیری از آخرین نسل فناوری ساخت، قدرت محاسباتی بالایی داشته باشند؛ همچنین طراحی این ریزتراشهها بایستی به نحوی باشد که محاسبات خاص الگوریتمهای هوش مصنوعی را به نحوی مؤثر و با صرف هزینه و توان بسیار کمتر انجام دهند. تراشههایی که توانستهاند این پیشرفت شگرف را رقم بزنند به تراشههای هوش مصنوعی[1] معروف هستند.
شکل 1: تراشه A100 شرکت انویدیا، یکی از مهمترین تراشههای دنیای هوش مصنوعی
در این یادداشت تلاش خواهیم کرد به سوالات زیر پاسخ دهیم:
- ریزتراشههای هوش مصنوعی چه هستند؟
- چه تفاوتی با سایر ریزتراشههایی که ممکن است در یک دستگاه پیدا شود دارند و به چه دلیل تولید شدهاند؟
- از چه اجزایی تشکیل شدهاند؟
- چه انواعی دارند؟
- برای چه منظورهایی استفاده میشوند و چه کاربردهایی دارند؟
- وضعیت بازار این ریزتراشهها به چه شکل است؟
چیستی ریزتراشههای هوش مصنوعی
ریزتراشههای هوش مصنوعی ریزتراشههایی هستند که برای انجام امور مرتبط با هوش مصنوعی طراحی شدهاند، همچنین میتوان آنها را قطعات سختافزاری و شتابدهندههایی دانست که دارای معماری بسیار خاصی برای پشتیبانی از برنامههای مبتنی بر یادگیری عمیق[2]هستند. این ریزتراشهها قادر به یادگیری و پردازش اطلاعات به روشی مشابه مغز انسان هستند، این عمل به کمک چندین فرمان و الگوریتم رایانهای انجام میشود. یکی از جنبههای مهم این ریزتراشهها یادگیری عمیق است. یادگیری عمیق که با عناوینی نظیر شبکهی عصبی عمیق[3] یا شبکه عصبی فعال نیز شناخته میشود، زیرمجموعهای از یادگیری ماشین[4] است که کاربردهایی بسیار خاص در حوزهی هوش مصنوعی دارد. شبکههای عصبی عمیق از دادههای موجود در مرحله آموزش یاد میگیرند و پس از آن قادر خواهند بود با استفاده از دادههای جدید عمل پیشبینیکردن را انجام دهند. این شبکههای عمیق ریزتراشهها را قادر میسازند که آسانتر و در یک بازهی زمانی کوتاهتر عمل جمعآوری، تجزیهوتحلیل و تفسیر مقادیر زیادی از دادهها را انجام دهند. امروزه تقاضا برای استفاده از این نوع از ریزتراشهها به دلیل داشتن توانایی ویژه در تبدیل دادهها به اطلاعات و تبدیل آن اطلاعات به دانش، روزبهروز در حال افزایش است. در ادامه به دلایل ظهور ریزتراشههای هوش مصنوعی میپردازیم.
دلیل ظهور ریزتراشههای هوش مصنوعی
سؤال مهمی که ممکن است مطرح شود این است که با وجود انواع دیگر ریزتراشهها همچون واحد پردازش مرکزی که به اختصار CPU[5] نامیده میشود و واحد پردازش گرافیکی که به اختصار GPU[6] نامیده میشود، چرا باز هم به پردازندههای هوش مصنوعی نیاز داریم. برای پاسخ به این سؤال لازم است نگاه مختصری به پردازندههای سنتی کامپیوتر یعنی CPUها و همچنین پردازندههای گرافیکی یعنی GPUها داشته باشیم.
واحد پردازش مرکزی (CPU)
CPU جزء اصلی مسئول اجرای دستورالعملها و انجام محاسبات در یک کامپیوتر است. CPU که اغلب مغز رایانه نامیده میشود، طیف گستردهای از اعمال اصلی محاسباتی، منطقی، کنترل و ورودی/خروجی مشخص شده توسط دستورالعملهای موجود در یک برنامه را انجام میدهد. CPUها برای اجرای دستورالعملهای یک برنامه به صورت گامبهگام، مانند دنبال کردن یک دستورالعمل آشپزی، بهینهشدهاند اما محاسبات مربوط به یادگیری ماشینی و کاربردهای هوش مصنوعی با قالب گامبهگام و ترتیبی مطابقت ندارند. برای مثال شبکههای عصبی برای یادگیری باید چندین (در حدود میلیاردها) عملیات را همزمان انجام دهند، همچنین فرآیند یادگیری ماشین برای یافتن الگوها در دادهها به ضرب ماتریسها متکی است که انجام تعداد زیادی از ضرب ماتریسهای عظیم، سرعت CPUها را تحتالشعاع قرار میدهد. علاوهبراین انجام اموری مانند تشخیص صدا نیز شامل تجزیهوتحلیل مجموعه دادههای بزرگ بهطور همزمان است، نه بهصورت گامبهگام. همهي این موارد نشان میدهند چرا چالشهای زیادی برای اجرای برنامههای مبتنی بر هوش مصنوعی بر روی CPUها وجود دارد.
پردازندههای گرافیکی (GPU)
با توجه به محدودیتهای CPU، محققان در دهه 1990 در حوزهی یادگیری ماشین، شروع به آزمایش بر روی GPU کردند. معماری موازی GPUها باعث شد که بهطور منحصربهفردی برای شبکههای عصبی شتابدهنده مناسب باشند. بدین ترتیب عصر استفاده ازGPUها آغاز شد. پردازندههای گرافیکی برای انجامدادن پردازش گرافیکی با اجرای تعداد بسیار زیادی از عملیات ممیز شناور[7] در هر ثانیه طراحی شدهاند که به عنوان FLOPS شناخته میشوند. اگر بخواهیم بهطور ساده FLOPS را توضیح دهیم مانند این خواهد بود که یک فروشگاه فستفود چند همبرگر میتواند در یک ساعت تهیه کند. هر چه تعداد برگرها (عملیات) در هر ساعت (در ثانیه) بیشتر باشد، غذا سریعتر سرو میشود (محاسبات سریعتر انجام میشود). GPUها در انجام FLOPSها بسیار عالی هستند، یعنی توانایی آن را دارند که تعداد بسیار زیادی عملیات ریاضی را به صورت موازی و همزمان انجام دهند، مسئلهای که باعث شد GPUها در آموزش الگوریتمهای هوش مصنوعی بسیار بسیار سریعتر از CPUها شوند. توانایی آموزش شبکههای عصبی عمیق، پیشرفتهایی را در زمینههایی مانند بینایی رایانه و تشخیص گفتار تا حوالی سال ۲۰۱۰ ممکن ساخت، از این رو میتوان پردازندههای گرافیکی را یک برگ برنده در حوزه هوش مصنوعی نامید. با این حال نکتهای که بایستی بدان توجه نمود این است که پردازندههای گرافیکی به منظور دستیابی به اهداف و انجام امور مربوط به هوش مصنوعی ساخته نشدهاند. اگرچه GPUها میتوانند برنامههای هوش مصنوعی را بهتر از CPUها پردازش کنند، اما اساساً برای پردازش مدلهای گرافیکی و نه شبکههای عصبی بهینهسازی و طراحی شدهاند.
ظهور پردازندههای هوش مصنوعی
اگرچه پردازندههای گرافیکی باعث شدند که حوزهی هوش مصنوعی پیشرفتهای فوقالعادهای را تجربه کند، اما این پردازندهها همچنان دارای محدودیتهایی در اجرای امور مربوط به یادگیری ماشین و هوش مصنوعی بودند. این امر سبب شد شرکتهای فناور ریزتراشههایی را از پایه طراحی کنند که بهطور خاص برای آموزش شبکههای عصبی و یادگیری ماشین بهینه شده باشند. در همین راستا در سال 2016، گوگل از واحد پردازش تنسور(TPU)[8] خود رونمایی کرد. این اولین ریزتراشه با تولید انبوه بود که صرفاً برای یادگیری عمیق، طراحی و تولید شده بود. معماری TPU به نحوی بود که علاوه بر بهحداقلرساندن مصرف انرژی در انجام عملیاتهای ضرب ماتریسی، سایر عملیاتهای مورد نیاز مدلهای یادگیری ماشین و یادگیری عمیق نیز با استفاده از آن سادهتر انجام میشدند.
همچنین استارتاپهای مطرح هوش مصنوعی در دنیا مانند Graphcore، Cerebras و SambaNova نیز معماریهای خلاقانه و منحصربهفرد ریزتراشههای هوش مصنوعی خود را معرفی کردهاند که برای آموزش مدلهای بزرگ[9] از عملکرد بسیار بهتری نسبت به پردازندههای گرافیکی برخوردار هستند. نکتهی قابل توجه در مورد ریزتراشههای هوش مصنوعی این است که علاوه بر استفاده بهتر از منابع و مصرف انرژی مؤثرتر در مقایسه با CPU و GPU، میتوانند محاسبات مربوط به یک مدل شبکهی عصبی را تقریباً ده هزار برابر سریعتر از GPUها انجام دهند. در ادامه به بررسی دقیقتر تفاوت میان ریزتراشههای هوش مصنوعی و ریزتراشههای سنتی میپردازیم.
تفاوتهای بین ریزتراشههای هوش مصنوعی و ریزتراشههای سنتی
تفاوتهای اساسی و بزرگی بین ریزتراشههای هوش مصنوعی و ریزتراشههای سنتی از منظر طراحی، عملکرد محاسباتی، مصرف انرژی و انعطافپذیری وجود دارد. در ادامهی این یادداشت قصد داریم به مقایسهی جزئیات برخی از این تفاوتها بپردازیم:
مقایسه از منظر طراحی
ریزتراشههای سنتی عمدتا در محاسبات همهمنظوره استفاده میشوند و قابلیت برنامهریزی و کاربرد وسیعتری دارند، در صورتی که ریزتراشههای هوش مصنوعی بهطور خاص برای سرعت بخشیدن به وظیفه محول شده به مدل هوش مصنوعی توسعه دادهشده، با هدف ارائه توان محاسباتی کارآمد و مصرف انرژی کم، طراحیشدهاند. این ریزتراشهها برای کاربردهای خاص هوش مصنوعی، مانند یادگیری ماشین، یادگیری عمیق، یادگیری تقویتی، تشخیص الگو و پردازش زبانهای طبیعی طراحی و ساخته میشوند.
مقایسه از منظر محاسباتی
قدرت محاسباتی ریزتراشههای سنتی عمدتا توسط CPU تعیین میشود و شاخصهای عملکرد آن شامل فرکانس کلاک[10] و تعداد هستهها است. برای انجام وظایف محاسباتی مرتبط با هوش مصنوعی، عملکرد ریزتراشههای سنتی دارای محدودیت است.
ریزتراشههای هوش مصنوعی قدرت محاسباتی کارآمدی را از طریق «پردازندههای گرافیکی[11]» و «پردازندههای شبکهعصبی[12]» فراهم میکنند. پردازندههای گرافیکی و پردازندههای شبکهعصبی ریزتراشهها را قادر به انجام عملیات ماتریسی در مقیاس بزرگ و بهصورت موازی خواهند ساخت، در نتیجه روند آموزش و نتیجهگیری در شبکههای عصبی با سرعت بسیار بیشتری انجام خواهد گرفت.
مقایسه از منظر مصرف انرژی
ریزتراشههای سنتی برای ارائهی عملکرد عالی، مصرف انرژی زیادی هم دارند. دلیل این مصرف بالای انرژی این است که معماری محاسباتی همهمنظوره ریزتراشههای سنتی انرژی زیادی را برای انجام وظایف مرتبط با هوش مصنوعی هدر میدهد.
ریزتراشههای هوش مصنوعی قدرت محاسباتی بالا و مصرف انرژی نسبتا کمی دارند. مصرف انرژی کمتر نسبت به ریزتراشههای سنتی به دلیل معماری شبکه عصبی تخصصی آنها است که از منابع محاسباتی بهتر استفاده نموده و اتلاف انرژی را کمتر میکنند.
مقایسه از منظر انعطافپذیری
ریزتراشههای سنتی بسیار قابلبرنامهریزی هستند و میتوانند انواع مختلفی از برنامهها را اجرا کنند. با اینحال، برای انجام وظایف خاص هوش مصنوعی، ریزتراشههای سنتی انعطافپذیری کمتری دارند.
ریزتراشههای هوش مصنوعی بهطور خاص برای محاسبات مربوط به شبکه عصبی بهینه شدهاند و برای کارهای هوش مصنوعی بسیار انعطافپذیر و سازگار هستند. این امر باعث شده ریزتراشههای هوش مصنوعی برای انجام محاسبات پیچیده هوش مصنوعی مناسبتر باشند.
بهطورکلی، در مقایسه با ریزتراشههای سنتی، ریزتراشههای هوش مصنوعی از نظر طراحی، قدرت محاسباتی، مصرف انرژی و انعطافپذیری بهطور ویژه بهینهسازی شدهاند و میتوانند وظایف هوش مصنوعی را با کارایی بیشتری انجام دهند. بدین ترتیب به نظر میرسد با توجه به روند سریع توسعه فناوری هوش مصنوعی، در آیندهی نزدیک شاهد افزایش استفاده از ریزتراشههای هوش مصنوعی در زمینههای مختلف خواهیم بود. در ادامه با اجزای مختلف ریزتراشههای هوش مصنوعی آشنا میشویم:
اجزای یک ریزتراشهی هوش مصنوعی
ریزتراشههای هوش مصنوعی از قسمتهای مختلفی تشکیل شدهاند: واحد پردازش عصبی، کنترلر، حافظه دسترسی تصادفی ثابت، بلوک ورودی/خروجی. همهی اجزای نام برده شده از بخشهای اساسی یک ریزتراشه هوش مصنوعی هستند؛ البته ممکن است ریزتراشههای مختلف اجزای اضافی نیز داشته باشند.
واحد پردازش عصبی (NPU[13])
NPU، که با عنوان AI PU[14] نیز شناخته میشود، مغز ریزتراشههای هوش مصنوعی است. این بخش مهمترین جز ریزتراشه هوش مصنوعی است که این ریزتراشه را از سایر ریزتراشههای موجود در بازار متمایز میکند. NPU این توانایی را برای ریزتراشه ایجاد میکند که با مصرف توان کمتر محاسبات مربوط به دادهها را سریع و مؤثر انجام دهد.
کنترلر
کنترلرها پردازندههایی هستند که فعالیتهای ریزتراشه را کنترل میکند و همچنین وظیفهی هماهنگی و ارتباط بین بلوکهای درونی ریزتراشه با تراشههای خارجی را بر عهده دارند.
SRAM[15]
SRAM برای پاسخگویی به این نیاز است که مدلهای هوش مصنوعی یا ورودیهای میانی روی ریزتراشه کجا ذخیره شوند. این حافظه که به عنوان حافظه دسترسی تصادفی ثابت نیز شناخته میشود، میتواند به سرعت و بهراحتی همه مدلها را ذخیره کند که در نتیجه در صورت نیاز میتوان در کمترین زمان به آنها دسترسی پیدا کرد. با اینحال نکتهای مهم دربارهی آنها وجود دارد، اینکه فضای ذخیرهسازی بزرگی مانند حافظهی تصادفی پویا[16] (DRAM) که در خارج از ریزتراشه قرار گرفته است، ندارد.
SRAM را میتوان همانند یخچالهای خانگی در نظر گرفت. اگرچه فضای ذخیرهسازی کوچکی دارند، اما گرفتن چیزها (در زمینه تراشهها، دادهها) یا بازگرداندن آنها بسیار سریع و راحت است. در برخی از موارد مشخص، بخصوص کاربردهای مربوط به هوش مصنوعی لبه[17]، این سرعت دسترسی بسیار حیاتی و مهم است.
اینکه چه مقدار SRAM در یک ریزتراشه قرار میگیرد، تصمیمی است که بر اساس هزینه قابل پرداخت و عملکرد مورد نیاز گرفته خواهد شد. یک استخر SRAM کوچکتر هزینههای اولیه کمتری دارد، اما نیاز به مراجعات بیشتری به DRAM دارد. این مسئله سبب خواهد شد که کارایی ریزتراشه کمتر شود، اما ریزتراشههایی ساخته شود که مقرون بهصرفهتر هستند.
بلوک ورودی/خروجی
بلوکهای ورودی/خروجی روی ریزتراشه در عملکرد داخلی تراشه بسیار مهم و حیاتی میباشند. آنها اجزای روی ریزتراشه را به اجزای خارجی مانند DRAM و پردازنده خارجی متصل میکنند. این بلوکها کمک به حفظ جریان دادهها و مؤثر نگهداشتن تبادل بین اجزای خارجی و داخلی ریزتراشه خواهند نمود.
در ادامه با انواع ریزتراشههای هوش مصنوعی آشنا میشویم.
انواع ریزتراشههای هوش مصنوعی
تراشههای هوش مصنوعی را میتوان در سه دستهی اصلی قرار داد.
- واحدهای پردازش گرافیکی (GPU)
- آرایههای دروازهای قابلبرنامهریزی میدانی (FPGA)
- مدارهای مجتمع با کاربرد ویژه ([18]ASIC)
GPU
پردازندههای گرافیکی، قدیمیترین نوع ریزتراشههای هوش مصنوعی هستند که در ابتدا برای انجام کارهای گرافیکی مانند رندرکردن ویدیو یا ایجاد تصاویر سهبعدی طراحی شده بودند، اما بعدها معلوم شد که در شبیهسازی عملکرد شبکههای عصبی در مقیاس بزرگ بسیار نیز خوب عمل میکنند.
نقطه ضعف این دسته از ریزتراشهها این است که از یک زمینه کاری متفاوت نسبت به زمینه هوش مصنوعی آمدهاند. علیرغم تغییر برخی از ویژگیها، بسیاری از ویژگیهای قدیمی در این دسته از ریزتراشهها حفظ شده است که برای انجام امور مربوط به هوش مصنوعی ضروری نیستند. این امر باعث میشود که این دسته از ریزتراشهها بزرگتر، گرانتر و عموما ناکارآمدتر نسبت به ریزتراشههای مخصوص هوش مصنوعی باشند.
ASIC
انواع خاصی از ریزتراشههای کامپیوتری هستند که برای انجام بسیار سریع نوعی خاص از محاسبات طراحی شدهاند. از این دسته از ریزتراشهها میتوان برای مواردی مانند استخراج بیت کوین، رمزگذاری ویدئو، و در موضوع مورد بحث ما یعنی اجرای وظایف خاص در حوزه هوش مصنوعی استفاده کرد.
مزیت اصلی ASICها کارایی بالای آنها در وظیفه مربوطه است. ازآنجاییکه آنها برای انجام یک و فقط یک هدف خاص طراحی شدهاند، هیچ ویژگی یا عملکردی در آنها وجود ندارد که برای انجام آن کار خاص لازم نباشد. این مهم باعث خواهد شد که نسبت به GPUها بسیار کوچکتر و ارزانتر باشند.
بااینحال نقطه ضعف ASICها عدم انعطافپذیری آنها است. از آنجایی که این ریزتراشهها برای انجام کاری خاص طراحی شدهاند، بهوجودآوردن تغییرات در آنها برای انجام امور دیگر بسیار سخت خواهد بود. بنابراین، اگر نیاز باشد که از یک ASIC خاص برای انجام کاری متفاوت در زمینه هوش مصنوعی استفاده شود، لازم است ریزتراشهای جدید طراحی و تولید شود که طبیعتا فرآیندی زمانبر و پرهزینه است.
FPGA
FPGAها نوعی از ریزتراشههای کامپیوتری هستند که کاربران میتوانند پس از تولید نیز آنها را پیکربندی نمایند. این قابلیت این امکان را فراهم میکند که ریزتراشه بسته به برنامهریزی انجامشده بر روی آن، وظایف مختلفی را بتواند انجام دهد.
FPGAها مزیتهایی نسبت به GPUها و ASICها دارند. برای مثال نسبت به ASICها انعطافپذیرتر هستند، زیرا میتوان آنها را برای انجام وظایف مختلف مجددا پیکربندی نمود. همچنین، برخلاف GPUها، هیچ ویژگی از نسل گذشته در آنها وجود ندارد که باعث شود این ریزتراشهها گرانتر و بزرگتر شوند.
نکتهی قابلتوجه دربارهی FPGAها این است که «چیزی که میتواند انواع کارها را انجام دهد احتمالاً در هیچکدام خبره نیست[19]». FPGAها بهاندازه GPUها انعطافپذیر نیستند و بهاندازه ASICها کارآمد نیستند. بنابراین، اگر به دنبال ریزتراشهای منعطف و یا واقعاً کارآمد باشیم، ممکن است انتخاب یک GPU یا یک ASIC به نظر عاقلانهتر باشد.
حال که با کلیت ریزتراشههای هوش مصنوعی، تفاوت آنها با سایر ریزتراشهها، اجزای مختلف این ریزتراشهها و انواع آنها آشنا شدیم، لازم است به کاربردهای آنها در زمینههای مختلف بپردازیم.
کاربردهای ریزتراشههای هوش مصنوعی
با توجه به کاربرد روزافزون هوش مصنوعی در تقریبا تمامی صنایع، ریزتراشههای هوش مصنوعی نیز به عنوان زیربنای توسعه هوش مصنوعی در اکثر زمینهها استفاده میشوند. در ادامه به چند مورد از کاربردهای این ریزتراشهها به عنوان نمونه اشاره شده است:
مدلهای زبانی هوش مصنوعی (LLM)
ریزتراشههای هوش مصنوعی، پایه اصلی توسعه مدلهای زبانی مختلف در این حوزه میباشند. از ChatGPT شرکت OpenAI تا Gemini شرکت گوگل، برای توسعه و پیشرفت وابسته به ریزتراشههای هوش مصنوعی هستند و هر چقدر ریزتراشه از سرعت و عملکرد بهتری برخوردار باشد مدل زبانی که از آن استفاده میکند نیز سریعتر و دقیقتر خواهد بود.
فناوریهای پوشیدنی[20](همانند ساعت هوشمند، کفش هوشمند، عینک هوشمند و …)
وقتی صحبت از فناوریهای پوشیدنی به میان میآید، هوش مصنوعی ابزاری است که امکانات فروانی را مهیا میسازد. بهعنوانمثال، هوش مصنوعی میتواند الگوهای گفتار، حالات و ضربان قلب را ارزیابی کند و در صورت لزوم با ارسال سیگنالهای هشداری، وضعیت کاربر را اطلاع دهد. علاوه بر آن، به کاربران کمک میکند که بتوانند عملکرد خود را در حوزههای مختلف همانند عملکرد ورزشی و سلامتی بهبود دهند. بدیهی است نقش سختافزار مناسب در دستیابی به این اهداف ضروری است و ریزتراشههای هوش مصنوعی هستند که این بستر سختافزاری را فراهم میکنند.
بازارهای خردهفروشی
علاوه بر کمک به تأمین نیازهای سیستمهای امنیتی در مراکز خرید و بازارها، ریزتراشههای هوش مصنوعی میتوانند در حوزههای دیگر از جمله ذخیرهسازی مواد، مدیریت قفسهها، مدیریت ذخیرهسازی اجناس و حملونقل نقشآفرین باشند.
مراقبتهای بهداشتی
ارزیابی و نظارت بر فاکتورهای سلامت بیماران بخش بزرگ و مهمی از فرآیند درمان است. ریزتراشههای هوش مصنوعی به کارکنان حوزه سلامت در مورد بدتر شدن وضعیت سلامتی بیمار هشدار میدهند تا در صورت لزوم بتوانند در سریعترین زمان ممکن درمان و اقدامات لازم را آغاز نمایند.
نگاهی به بازار ریزتراشههای هوش مصنوعی
از آنجایی که کاربردهای هوش مصنوعی در بسیاری از صنایع مانند خودروسازی، فولاد، نفتوگاز، صنعت برق، حملونقل، صنعت غذایی، ساختمان، مراقبتهای بهداشتی،صنعت مالی، تولید و اتوماسیون در سالهای اخیر اهمیت فزایندهای پیدا کرده است، استفاده از ریزتراشههای هوش مصنوعی روزبهروز افزایش یافته و این افزایش استفاده سبب شده است که بازار ریزتراشههای هوش مصنوعی در سالهای اخیر رشد بسیار سریعی را تجربه کند. همچنین برای توسعه انواع مدلهای زبانی هوش مصنوعی به حجم زیادی از ریزتراشههای هوش مصنوعی نیاز است که باعث شده تقاضای این ریزتراشهها به طور قابل توجهی افزایش پیدا کند. نمونهی ساده این بازار را میتوان در رابطه شرکتهای OpenAI و Nvidia مشاهده کرد. OpenAI در طرف تقاضا برای توسعه مدلهای هوش مصنوعی خود موسوم به GPT نیاز به تعداد زیادی ریزتراشه هوش مصنوعی دارد و در طرف عرضه شرکت Nvidia قرار دارد که با توجه به تقاضای بالای این نوع ریزتراشهها، وضعیت مالی مطلوبی را در بازار ایالات متحده و همچنین بازار جهانی ریزتراشههای هوش مصنوعی تجربه میکند. اندازه بازار جهانی ریزتراشههای هوش مصنوعی در سال 2022، 16.86 میلیارد دلار بوده و پیشبینی میشود که با نرخ رشد مرکب سالانه 29.72 درصد از سال 2023 تا سال 2032 میلادی دارای ارزش بازاری بالغ بر 227.4 میلیارد دلار شود. در شکل 2 این روند قابل مشاهده میباشد.
شکل 2: بازار ریزتراشههای هوش مصنوعی (بر حسب میلیارد دلار)
امروزه بازیگران زیادی سرمایهگذاریهای عظیمی بر روی ریزتراشهها و محصولات مرتبط با هوش مصنوعی انجام دادهاند تا بتوانند در آینده سهم بیشتری از این بازار را در اختیار داشته باشند. برخی از بازیگران کلیدی در بازار جهانی ریزتراشههای هوش مصنوعی در شکل 3 قابل مشاهده هستند.
شکل 3: شرکتهای فعال در حوزه تولید ریزتراشههای هوش مصنوعی
همچنین استارتاپهای بسیار زیادی در حوزه ریزتراشههای هوش مصنوعی تأسیس شدهاند. اگرچه بسیاری از این استارتاپها تازه تأسیس شدهاند، اما توانستهاند سرمایهگذاریهای بسیار زیادی را جذب نمایند که نشانگر خوشبینی سرمایهگذاران به آینده این فناوری و محصولات است.
جمع بندی
ریزتراشههای هوش مصنوعی در حال تبدیل شدن به یکی از کلیدیترین ارکان پیشرفت فناوری در جهان هستند. با توسعه و پیچیدهتر شدن سیستمهای هوش مصنوعی، نیاز به پردازشهای سریعتر، دقیقتر و با مصرف انرژی کمتر روز به روز بیشتر احساس میشود. در این میان، ریزتراشههای هوش مصنوعی بهعنوان قلب این سیستمها عمل میکنند و نقشی محوری در افزایش کارایی و گسترش کاربردهای هوش مصنوعی در زمینههای مختلف دارند؛ از خودروهای خودران و رباتها تا شهرهای هوشمند و صنعت سلامت.
با رشد سریع این بازار و افزایش تقاضا برای فناوریهای مبتنی بر هوش مصنوعی، کشورهای توسعهیافته و در حال توسعه به سرمایهگذاریهای گسترده در این حوزه روی آوردهاند. این سرمایهگذاریها نه تنها به توسعه زیرساختهای فناورانه منجر میشود، بلکه به دلیل وابستگی اقتصاد جهانی به فناوریهای نوین، به عنوان راهی برای حفظ و تقویت رقابتپذیری ملی نیز تلقی میشود.
کشورهایی مانند ایالات متحده و چین با سرمایهگذاریهای عظیم در تحقیق و توسعه ریزتراشههای هوش مصنوعی در صدر این رقابت قرار دارند. با این حال، کشورهای منطقه مانند هند، عربستان سعودی و امارات متحده عربی نیز در این حوزه به سرعت در حال پیشرفت هستند. هند به عنوان یکی از بزرگترین مراکز فناوری اطلاعات جهان، تمرکز خود را بر تولید و بهینهسازی ریزتراشهها و سیستمهای هوش مصنوعی گذاشته است. عربستان و امارات نیز با سرمایهگذاریهای کلان در حوزه فناوریهای پیشرفته، به دنبال متنوعسازی اقتصاد خود و ایجاد زیرساختهای هوشمند برای آینده هستند.
این رقابت جهانی نشاندهنده اهمیت روزافزون ریزتراشههای هوش مصنوعی در اقتصاد آینده است و نشان میدهد که کشورها برای حفظ موقعیت اقتصادی و فناوری خود در جهان، باید به سرمایهگذاری در این حوزه توجه ویژهای داشته باشند.
منابع
January 2021, A.L. 05 (n.d.). What is an AI chip? Everything you need to know. [online] TechRadar. Available at: https://www.techradar.com/news/what-is-an-ai-chip-everything-you-need-to-know.
blog.synapticlabs.ai. (n.d.). Silicon Brains: The Rise of AI Chips. [online] Available at: https://blog.synapticlabs.ai/silicon-brains-the-rise-of-ai-chips
Dilmegani, C. (2021). Top 10 AI Chip-makers of 2022: In-depth Guide. [online] research.aimultiple.com. Available at: https://research.aimultiple.com/ai-chip-makers
MacroPolo. (n.d.). Inside an AI Chip. [online] Available at: https://macropolo.org/digital-projects/supply-chain/ai-chips/inside-an-ai-chip/
Khan, S. (2020). AI Chips: What They Are and Why They Matter. [online] Center for Security and Emerging Technology. Available at: https://cset.georgetown.edu/publication/ai-chips-what-they-are-and-why-they-matter/
www.electronicdesign.com. (n.d.). StackPath. [online] Available at: https://www.electronicdesign.com/technologies/embedded/article/21260950/stratview-research-how-are-ai-chips-making-the-world-a-smarter-place.
Terentev, E. (2022). AI chips: What they are, how they work, and which ones to choose? [online] Edged 🟩 Making machines intelligent since 2017. Available at: https://edged.ai/blog/ai-chips/
[1] Artificial Intelligence chip (AI Chip)
[2] Deep Learning
[3] Deep Neural Network (DNN)
[4] Machine learning
[5] Central processing unit (CPU)
[6] Graphics Processing Unit (GPU)
[7] Floating-point operations per second (FLOPS)
[8] Tensor Processing Unit(TPU)
[9] Large model
[10] clock
[11] Graphics processor
[12] Neural Network Processor
[13] Neural Processing Unit
[14] Artificial Intelligence Processing Unit (AI PU)
[15] Static Random-Access Memory
[16] Dynamic random-access memory
[17] Edge artificial intelligence
[18] Application Specific Integrated chip
[19] a Jack of all trades might not be a master of any
[20] Wearables