فهرست مطالب

میزان مطالعه

ریزتراشه‌های هوش مصنوعی

نقش روزافزون هوش مصنوعی در انواع حوزه‌ها از قبیل آموزش، بهداشت و سلامت، حمل‌و‌نقل، مالی، سرگرمی، امنیت داخلی و بین‌الملی سبب شده است که این فناوری روز‌به‌روز از اهمیت بیشتری در بین ملت‌ها و دولت‌ها برخوردار شود. موفقیت‌های کسب‌شده در حوزه‌ی تکنیک‌های هوش مصنوعی در سال‌های گذشته، متکی بر محاسبات در مقیاس کلان و پرداخت هزینه‌های سنگین بوده است. لازم به ذکر است بعضا محاسبات لازم برای آموزش الگوریتم‌های هوش مصنوعی نیازمند صرف حدود یک ماه زمان و پرداخت صدها میلیون دلار هزینه است. برای انجام این محاسبات باید از ریزتراشه‌هایی استفاده شود که با بهره‌گیری از آخرین نسل فناوری ساخت، قدرت محاسباتی بالایی داشته باشند؛ همچنین طراحی این ریزتراشه‌ها بایستی به نحوی باشد که محاسبات خاص الگوریتم‌های هوش مصنوعی را به نحوی مؤثر و با صرف هزینه و توان بسیار کمتر انجام دهند. تراشه‌هایی که توانسته‌اند این پیشرفت شگرف را رقم بزنند به تراشه‌های هوش مصنوعی[1] معروف هستند.

شکل 1: تراشه A100 شرکت انویدیا، یکی از مهم‌ترین تراشه‌های دنیای  هوش مصنوعی

در این یادداشت تلاش خواهیم کرد به سوالات زیر پاسخ دهیم:

  1. ریزتراشه‌های هوش مصنوعی چه هستند؟
  2. چه تفاوتی با سایر ریزتراشه‌هایی که ممکن است در یک دستگاه پیدا شود دارند و به چه دلیل تولید شده‌اند؟
  3. از چه اجزایی تشکیل شده‌اند؟
  4. چه انواعی دارند؟
  5. برای چه منظورهایی استفاده می‌شوند و چه کاربردهایی دارند؟
  6. وضعیت بازار این ریزتراشه‌ها به چه شکل است؟

چیستی ریزتراشه‌های هوش مصنوعی

ریزتراشه‌های هوش مصنوعی ریزتراشه‌هایی هستند که برای انجام امور مرتبط با هوش مصنوعی طراحی شده‌اند، همچنین می‌توان آن‌ها را قطعات سخت‌افزاری و شتاب‌دهنده‌هایی دانست که دارای معماری بسیار خاصی برای پشتیبانی از برنامه‌های مبتنی بر یادگیری عمیق[2]هستند. این ریزتراشه‌ها قادر به یادگیری و پردازش اطلاعات به روشی مشابه مغز انسان هستند، این عمل به کمک چندین فرمان و الگوریتم رایانه‌ای انجام می‌شود. یکی از جنبه‌های مهم این ریزتراشه‌ها یادگیری عمیق است. یادگیری عمیق که با عناوینی نظیر شبکه‌ی عصبی عمیق[3] یا شبکه عصبی فعال نیز شناخته می‌شود، زیرمجموعه‌ای از یادگیری ماشین[4] است که کاربرد‌هایی بسیار خاص در حوزه‌ی هوش مصنوعی دارد. شبکه‌های عصبی عمیق از داده‌های موجود در مرحله آموزش یاد می‌گیرند و پس از آن قادر خواهند بود با استفاده از داد‌ه‌های جدید عمل پیش‌بینی‌کردن را انجام دهند. این شبکه‌های عمیق  ریزتراشه‌‌ها را قادر می‌سازند که آسان‌تر و در یک بازه‌ی زمانی کوتاه‌تر عمل جمع‌آوری، تجزیه‌وتحلیل و تفسیر مقادیر زیادی از داده‌ها را انجام دهند. امروزه تقاضا برای استفاده از این نوع از ریزتراشه‌ها به دلیل داشتن توانایی ویژه در تبدیل داده‌ها به اطلاعات و تبدیل آن اطلاعات به دانش، روز‌به‌روز در حال افزایش است. در ادامه به دلایل ظهور ریزتراشه‌های هوش مصنوعی می‌پردازیم.

دلیل ظهور ریزتراشه‌های هوش مصنوعی

سؤال مهمی که ممکن است مطرح شود این است که با وجود انواع دیگر ریزتراشه‌ها همچون واحد پردازش مرکزی که به اختصار CPU[5] نامیده می‌شود و واحد پردازش گرافیکی که به اختصار GPU[6] نامیده می‌شود، چرا باز هم به پردازنده‌های هوش مصنوعی نیاز داریم. برای پاسخ به این سؤال لازم است نگاه مختصری به پردازنده‌های سنتی کامپیوتر یعنی CPUها و همچنین پردازنده‌های گرافیکی یعنی GPUها داشته باشیم.

واحد پردازش مرکزی (CPU)

CPU جزء اصلی مسئول اجرای دستورالعمل‌ها و انجام محاسبات در یک کامپیوتر است. CPU که اغلب مغز رایانه نامیده می‌شود، طیف گسترده‌ای از اعمال اصلی محاسباتی، منطقی، کنترل و ورودی/خروجی مشخص شده توسط دستور‌العمل‌های موجود در یک برنامه را انجام می‌دهد. CPUها برای اجرای دستورالعمل‌های یک برنامه به صورت گام‌به‌گام، مانند دنبال کردن یک دستورالعمل آشپزی، بهینه‌شده‌اند اما محاسبات مربوط به یادگیری ماشینی و کاربرد‌های هوش مصنوعی با قالب گام‌به‌گام و ترتیبی مطابقت ندارند. برای مثال شبکه‌های عصبی برای یادگیری باید چندین (در حدود میلیارد‌ها) عملیات را هم‌زمان انجام دهند، همچنین فرآیند یادگیری ماشین برای یافتن الگوها در داده‌ها به ضرب ماتریس‌ها متکی است که انجام تعداد زیادی از ضرب ماتریس‌های عظیم، سرعت CPUها را تحت‌الشعاع قرار می‌دهد. علاوه‌براین انجام اموری مانند تشخیص صدا نیز شامل تجزیه‌وتحلیل مجموعه داده‌های بزرگ به‌طور هم‌زمان است، نه به‌صورت گام‌به‌گام. همه‌ي این موارد نشان می‌دهند چرا چالش‌های زیادی برای اجرای برنامه‌های مبتنی بر هوش مصنوعی بر روی CPUها وجود دارد.

پردازنده‌های گرافیکی (GPU)

با توجه به محدودیت‌های CPU، محققان در دهه 1990 در حوزه‌ی یادگیری ماشین، شروع به آزمایش بر روی GPU کردند. معماری موازی GPUها باعث شد که به‌طور منحصربه‌فردی برای شبکه‌های عصبی شتاب‌دهنده مناسب باشند. بدین ترتیب عصر استفاده ازGPUها آغاز شد. پردازنده‌های گرافیکی برای انجام‌دادن پردازش گرافیکی با اجرای تعداد بسیار زیادی از عملیات ممیز شناور[7] در هر ثانیه طراحی ‌شده‌اند که به عنوان FLOPS شناخته می‌شوند. اگر بخواهیم به‌طور ساده FLOPS را توضیح دهیم مانند این خواهد بود که یک فروشگاه فست‌فود چند همبرگر می‌تواند در یک ساعت تهیه کند. هر چه تعداد برگرها (عملیات) در هر ساعت (در ثانیه) بیشتر باشد، غذا سریع‌تر سرو می‌شود (محاسبات سریع‌تر انجام می‌شود). GPUها در انجام FLOPS‌ها بسیار عالی هستند، یعنی توانایی آن را دارند که تعداد بسیار زیادی عملیات ریاضی را به صورت موازی و هم‌زمان انجام دهند، مسئله‌ای که باعث شد GPUها در آموزش الگوریتم‌های هوش مصنوعی بسیار بسیار سریع‌تر از CPUها شوند. توانایی آموزش شبکه‌های عصبی عمیق، پیشرفت‌هایی را در زمینه‌هایی مانند بینایی رایانه و تشخیص گفتار تا حوالی سال‌ ۲۰۱۰ ممکن ساخت، از این رو می‌توان پردازنده‌های گرافیکی را یک برگ برنده در حوزه هوش مصنوعی نامید. با این حال نکته‌ا‌ی که بایستی بدان توجه نمود این است که پردازنده‌های گرافیکی به منظور دستیابی به اهداف و انجام امور مربوط به هوش مصنوعی ساخته نشده‌اند. اگرچه GPU‌ها می‌توانند برنامه‌های هوش مصنوعی را بهتر از CPU‌ها پردازش کنند، اما اساساً برای پردازش مدل‌های گرافیکی و نه شبکه‌های عصبی بهینه‌سازی و طراحی ‌شده‌اند.

ظهور پردازنده‌های هوش مصنوعی

اگرچه پردازنده‌های گرافیکی باعث شدند که حوزه‌ی هوش مصنوعی پیشرفت‌های فوق‌العاده‌ای را تجربه کند، اما این پردازنده‌ها همچنان دارای محدودیت‌هایی در اجرای امور مربوط به یادگیری ماشین و هوش مصنوعی بودند. این امر سبب شد شرکت‌های فناور ریزتراشه‌هایی را از پایه طراحی کنند که به‌طور خاص برای آموزش شبکه‌های عصبی و یادگیری ماشین بهینه ‌شده باشند. در همین راستا در سال 2016، گوگل از واحد پردازش تنسور(TPU)[8] خود رونمایی کرد. این اولین ریزتراشه با تولید انبوه بود که صرفاً برای یادگیری عمیق، طراحی و تولید شده بود. معماری TPU به نحوی بود که علاوه بر به‌حداقل‌رساندن مصرف انرژی در انجام عملیات‌های ضرب ماتریسی، سایر عملیات‌های مورد نیاز مدل‌های یادگیری ماشین و یادگیری عمیق نیز با استفاده از آن ساده‌تر انجام می‌شدند.

 همچنین استارتاپ‌های مطرح هوش مصنوعی در دنیا مانند Graphcore، Cerebras و SambaNova نیز معماری‌های خلاقانه و منحصربه‌فرد ریزتراشه‌های هوش مصنوعی خود را معرفی کرده‌اند که برای آموزش مدل‌های بزرگ[9] از عملکرد بسیار بهتری نسبت به پردازنده‌های گرافیکی برخوردار هستند. نکته‌ی قابل توجه در مورد ریزتراشه‌های هوش مصنوعی این است که علاوه بر استفاده بهتر از منابع و مصرف انرژی مؤثرتر در مقایسه با CPU و GPU، می‌توانند محاسبات مربوط به یک مدل شبکه‌ی عصبی را تقریباً ده هزار برابر سریع‌تر از GPU‌ها انجام دهند. در ادامه به بررسی دقیق‌تر تفاوت میان ریزتراشه‌های هوش مصنوعی و ریزتراشه‌های سنتی می‌پردازیم.

تفاوت‌های بین ریزتراشه‌های هوش مصنوعی و ریزتراشه‌های سنتی

تفاوت‌های اساسی و بزرگی بین ریزتراشه‌های هوش مصنوعی و ریزتراشه‌های سنتی از منظر طراحی، عملکرد محاسباتی، مصرف انرژی و انعطاف‌پذیری وجود دارد. در ادامه‌ی این یادداشت قصد داریم به مقایسه‌ی جزئیات برخی از این تفاوت‌ها بپردازیم:

مقایسه از منظر طراحی

ریزتراشه‌های سنتی عمدتا در محاسبات همه‌منظوره استفاده می‌شوند و قابلیت برنامه‌ریزی و کاربرد وسیع‌تری دارند، در صورتی که ریزتراشه‌های هوش مصنوعی به‌طور خاص برای سرعت بخشیدن به وظیفه محول شده به مدل هوش مصنوعی توسعه داده‌شده، با هدف ارائه توان محاسباتی کارآمد و مصرف انرژی کم، طراحی‌شده‌اند. این ریزتراشه‌ها برای کاربردهای خاص هوش مصنوعی، مانند یادگیری ماشین، یادگیری عمیق، یادگیری تقویتی، تشخیص الگو و پردازش زبان‌های طبیعی طراحی و ساخته می‌شوند.

مقایسه از منظر محاسباتی

قدرت محاسباتی ریزتراشه‌های سنتی عمدتا توسط CPU تعیین می‌شود و شاخص‌های عملکرد آن شامل فرکانس کلاک[10] و تعداد هسته‌ها است. برای انجام وظایف محاسباتی مرتبط با هوش مصنوعی، عملکرد ریزتراشه‌های سنتی دارای محدودیت است.

ریزتراشه‌های هوش مصنوعی قدرت محاسباتی کارآمدی را از طریق «پردازنده‌های گرافیکی[11]» و «پردازنده‌های شبکه‌عصبی[12]» فراهم می‌کنند. پردازنده‌های گرافیکی و پردازنده‌های شبکه‌عصبی ریزتراشه‌ها را قادر به انجام عملیات ماتریسی در مقیاس بزرگ و به‌صورت موازی خواهند ساخت، در نتیجه روند آموزش و نتیجه‌گیری در شبکه‌های عصبی با سرعت بسیار بیشتری انجام خواهد گرفت.

مقایسه از منظر مصرف انرژی

ریزتراشه‌های سنتی برای ارائه‌ی عملکرد عالی، مصرف انرژی زیادی هم دارند. دلیل این مصرف بالای انرژی این است که معماری محاسباتی همه‌منظوره ریزتراشه‌های سنتی انرژی زیادی را برای انجام وظایف مرتبط با هوش مصنوعی هدر می‌دهد.

ریزتراشه‌های هوش مصنوعی قدرت محاسباتی بالا و مصرف انرژی نسبتا کمی دارند. مصرف انرژی کم‌تر نسبت به ریزتراشه‌های سنتی به دلیل معماری شبکه عصبی تخصصی آن‌ها است که از منابع محاسباتی بهتر استفاده نموده و اتلاف انرژی را کم‌تر می‌کنند.

مقایسه از منظر انعطاف‌پذیری

ریزتراشه‌های سنتی بسیار قابل‌برنامه‌ریزی هستند و می‌توانند انواع مختلفی از برنامه‌ها را اجرا کنند. با این‌حال، برای انجام وظایف خاص هوش مصنوعی، ریزتراشه‌های سنتی انعطاف‌پذیری کمتری دارند.
ریزتراشه‌های هوش مصنوعی به‌طور خاص برای محاسبات مربوط به شبکه عصبی بهینه شده‌اند و برای کارهای هوش مصنوعی بسیار انعطاف‌پذیر و سازگار هستند. این امر باعث شده ریزتراشه‌های هوش مصنوعی برای انجام محاسبات پیچیده هوش مصنوعی مناسب‌تر باشند.

به‌طورکلی، در مقایسه با ریزتراشه‌های سنتی، ریزتراشه‌های هوش مصنوعی از نظر طراحی، قدرت محاسباتی، مصرف انرژی و انعطاف‌پذیری به‌طور ویژه بهینه‌سازی شده‌اند و می‌توانند وظایف هوش مصنوعی را با کارایی بیشتری انجام دهند. بدین ترتیب به نظر می‌رسد با توجه به روند سریع توسعه‌ فناوری هوش مصنوعی، در آینده‌ی نزدیک شاهد افزایش استفاده از ریزتراشه‌های هوش مصنوعی در زمینه‌های مختلف خواهیم بود. در ادامه با اجزای مختلف ریزتراشه‌های هوش مصنوعی آشنا می‌شویم:

اجزای یک ریزتراشه‌ی هوش مصنوعی

ریزتراشه‌های هوش مصنوعی از قسمت‌های مختلفی تشکیل شده‌اند: واحد پردازش عصبی، کنترلر، حافظه دسترسی تصادفی ثابت، بلوک ورودی/خروجی. همه‌ی اجزای نام‌ برده شده از بخش‌های اساسی یک ریزتراشه هوش مصنوعی هستند؛ البته ممکن است ریزتراشه‌های مختلف اجزای اضافی نیز داشته باشند.

واحد پردازش عصبی (NPU[13])

NPU، که با عنوان AI PU[14] نیز شناخته می‌شود، مغز ریزتراشه‌های هوش مصنوعی است. این بخش مهم‌ترین جز ریزتراشه هوش مصنوعی است که این ریزتراشه را از سایر ریزتراشه‌های موجود در بازار متمایز می‌کند. NPU این توانایی را برای ریزتراشه ایجاد می‌کند که با مصرف توان کم‌تر محاسبات مربوط به داده‌ها را سریع و مؤثر انجام دهد.

کنترلر
کنترلرها پردازنده‌هایی هستند که فعالیت‌های ریزتراشه را کنترل می‌کند و همچنین وظیفه‌ی هماهنگی و ارتباط بین بلوک‌های درونی ریزتراشه با تراشه‌های خارجی را بر عهده دارند.

SRAM[15]

SRAM برای پاسخ‌گویی به این نیاز است که مدل‌های هوش مصنوعی یا ورودی‌های میانی روی ریزتراشه کجا ذخیره شوند. این حافظه که به عنوان حافظه دسترسی تصادفی ثابت نیز شناخته می‌شود، می‌تواند به سرعت و به‌راحتی همه مدل‌ها را ذخیره کند که در نتیجه در صورت نیاز می‌توان در کمترین زمان به آن‌ها دسترسی پیدا کرد. با این‌حال نکته‌ای مهم درباره‌ی آن‌ها وجود دارد، این‌که فضای ذخیره‌سازی بزرگی مانند حافظه‌ی تصادفی پویا[16] (DRAM) که در خارج از ریزتراشه قرار گرفته است، ندارد.

SRAM را می‌توان همانند یخچال‌های خانگی در نظر گرفت. اگرچه فضای ذخیره‌سازی کوچکی دارند، اما گرفتن چیزها (در زمینه تراشه‌ها، داده‌ها) یا بازگرداندن آن‌ها بسیار سریع و راحت است. در برخی از موارد مشخص، بخصوص کاربرد‌های مربوط به هوش مصنوعی لبه[17]، این سرعت دسترسی بسیار حیاتی و مهم است.

این‌که چه مقدار SRAM در یک ریزتراشه قرار می‌گیرد، تصمیمی است که بر اساس هزینه قابل پرداخت و عملکرد مورد نیاز گرفته خواهد شد. یک استخر SRAM کوچک‌تر هزینه‌های اولیه کمتری دارد، اما نیاز به مراجعات بیشتری به DRAM دارد. این مسئله سبب خواهد شد که کارایی ریزتراشه کم‌تر شود، اما ریزتراشه‌هایی ساخته شود که مقرون به‌صرفه‌تر هستند.

بلوک ورودی/خروجی

بلوک‌های ورودی/خروجی روی ریزتراشه در عملکرد داخلی تراشه بسیار مهم و حیاتی می‌باشند. آن‌ها اجزای روی ریزتراشه را به اجزای خارجی مانند DRAM و پردازنده خارجی متصل می‌کنند. این بلوک‌ها کمک به حفظ جریان داده‌ها و مؤثر نگه‌داشتن تبادل بین اجزای خارجی و داخلی ریزتراشه خواهند نمود.

در ادامه با انواع ریزتراشه‌های هوش مصنوعی آشنا می‌شویم.

انواع ریزتراشه‌های هوش مصنوعی

تراشه‌های هوش مصنوعی را می‌توان در سه دسته‌ی اصلی قرار داد.

  • واحدهای پردازش گرافیکی (GPU)
  • آرایه‌های دروازه‌ای قابل‌برنامه‌ریزی میدانی (FPGA)
  •   مدارهای مجتمع با کاربرد ویژه ([18]ASIC)

GPU

پردازنده‌های گرافیکی، قدیمی‌ترین نوع ریزتراشه‌های هوش مصنوعی هستند که در ابتدا برای انجام کارهای گرافیکی مانند رندرکردن ویدیو یا ایجاد تصاویر سه‌بعدی طراحی شده بودند، اما بعد‌ها معلوم شد که در شبیه‌سازی عملکرد شبکه‌های عصبی در مقیاس بزرگ بسیار نیز خوب عمل می‌کنند.

نقطه ضعف این دسته از ریزتراشه‌ها این است که از یک زمینه کاری متفاوت نسبت به زمینه هوش مصنوعی آمده‌اند. علی‌رغم تغییر برخی از ویژگی‌ها، بسیاری از ویژگی‌های قدیمی در این دسته از ریزتراشه‌ها حفظ شده است که برای انجام امور مربوط به هوش مصنوعی ضروری نیستند. این امر  باعث می‌شود که این دسته از ریزتراشه‌ها بزرگ‌تر، گران‌تر و عموما ناکارآمدتر نسبت به ریزتراشه‌های مخصوص هوش مصنوعی باشند.

ASIC

انواع خاصی از ریزتراشه‌های کامپیوتری هستند که برای انجام بسیار سریع نوعی خاص از محاسبات طراحی شده‌اند. از این دسته از ریزتراشه‌ها می‌توان برای مواردی مانند استخراج بیت کوین، رمزگذاری ویدئو، و در موضوع مورد بحث ما یعنی اجرای وظایف خاص در حوزه هوش مصنوعی استفاده کرد.

مزیت اصلی ASIC‌ها کارایی بالای آن‌ها در وظیفه مربوطه است. ازآنجایی‌که آن‌ها برای انجام یک و فقط یک هدف خاص طراحی شده‌اند، هیچ ویژگی یا عملکردی در آن‌ها وجود ندارد که برای انجام آن کار خاص لازم نباشد. این مهم باعث خواهد شد که نسبت به GPUها بسیار کوچک‌تر و ارزان‌تر باشند.

بااین‌حال نقطه ضعف ASICها عدم انعطاف‌پذیری آن‌ها است. از آن‌جایی که این ریزتراشه‌ها برای انجام کاری خاص طراحی شده‌اند، به‌وجودآوردن تغییرات در آن‌ها برای انجام امور دیگر بسیار سخت خواهد بود. بنابراین، اگر نیاز باشد که از یک ASIC خاص برای انجام کاری متفاوت در زمینه‌ هوش مصنوعی استفاده شود، لازم است ریزتراشه‌ای جدید طراحی و تولید شود که طبیعتا فرآیندی زمان‌بر و پرهزینه است.

FPGA

FPGAها نوعی از ریزتراشه‌های کامپیوتری هستند ‌که کاربران می‌توانند پس از تولید نیز آن‌ها را پیکربندی نمایند. این قابلیت این امکان را فراهم می‌کند که ریزتراشه بسته به برنامه‌ریزی انجام‌شده بر روی آن، وظایف مختلفی را بتواند انجام دهد.

FPGAها مزیت‌هایی نسبت به GPUها و ASICها دارند. برای مثال نسبت به ASICها انعطاف‌پذیرتر هستند، زیرا می‌توان آن‌ها را برای انجام وظایف مختلف مجددا پیکربندی نمود. همچنین، برخلاف GPU‌ها، هیچ ویژگی از نسل گذشته در آن‌ها وجود ندارد که باعث شود این ریزتراشه‌ها گران‌تر و بزرگ‌تر شوند.

نکته‌ی قابل‌توجه درباره‌ی FPGAها این است که «چیزی که می‌تواند انواع کارها را انجام دهد احتمالاً در هیچ‌کدام خبره نیست[19]». FPGA‌ها به‌اندازه GPUها انعطاف‌پذیر نیستند و به‌اندازه ASICها کارآمد نیستند. بنابراین، اگر به دنبال ریزتراشه‌ای منعطف و یا واقعاً کارآمد باشیم، ممکن است انتخاب یک GPU یا یک ASIC به نظر عاقلانه‌تر باشد.

حال که با کلیت ریزتراشه‌های هوش مصنوعی، تفاوت آن‌ها با سایر ریزتراشه‌ها، اجزای مختلف این ریزتراشه‌ها و انواع آن‌ها آشنا شدیم، لازم است به کاربردهای آن‌ها در زمینه‌های مختلف بپردازیم.

کاربرد‌های ریزتراشه‌های هوش مصنوعی

با توجه به کاربرد روزافزون هوش‌ مصنوعی در تقریبا تمامی صنایع، ریزتراشه‌های هوش مصنوعی نیز به عنوان زیربنای توسعه هوش مصنوعی در اکثر زمینه‌ها استفاده می‌شوند. در ادامه به چند مورد از کاربردهای این ریزتراشه‌ها به عنوان نمونه اشاره شده است:

مدل‌های زبانی هوش مصنوعی (LLM)

ریزتراشه‌های هوش مصنوعی، پایه اصلی توسعه مدل‌های زبانی مختلف در این حوزه می‌باشند. از ChatGPT شرکت OpenAI تا Gemini شرکت گوگل، برای توسعه و پیشرفت وابسته به ریزتراشه‌های هوش مصنوعی هستند و هر چقدر ریزتراشه از سرعت و عملکرد بهتری برخوردار باشد مدل زبانی که از آن استفاده می‌کند نیز سریع‌تر و دقیق‌تر خواهد بود.

فناوری‌های پوشیدنی[20](همانند ساعت هوشمند، کفش هوشمند، عینک هوشمند و …)

وقتی صحبت از فناوری‌های پوشیدنی به میان می‌آید، هوش مصنوعی ابزاری است که امکانات فروانی را مهیا می‌سازد. به‌عنوان‌مثال، هوش مصنوعی می‌تواند الگوهای گفتار، حالات و ضربان قلب را ارزیابی کند و در صورت لزوم با ارسال سیگنال‌های هشداری، وضعیت کاربر را اطلاع دهد. علاوه بر آن، به کاربران کمک می‌کند که بتوانند عملکرد خود را در حوزه‌های مختلف همانند عملکرد ورزشی و سلامتی بهبود دهند. بدیهی است نقش سخت‌افزار مناسب در دستیابی به این اهداف ضروری است و ریزتراشه‌های هوش مصنوعی هستند که این بستر سخت‌افزاری را فراهم می‌کنند.

بازار‌های خرده‌فروشی

علاوه بر کمک به تأمین نیاز‌های سیستم‌های امنیتی در مراکز خرید و بازار‌ها، ریزتراشه‌های هوش مصنوعی می‌توانند در حوزه‌های دیگر از جمله ذخیره‌سازی مواد، مدیریت قفسه‌ها، مدیریت ذخیره‌سازی اجناس و حمل‌ونقل نقش‌آفرین باشند.

مراقبت‌های بهداشتی

 ارزیابی و نظارت بر فاکتور‌های سلامت بیماران بخش بزرگ و مهمی از فرآیند درمان است. ریزتراشه‌های هوش مصنوعی به کارکنان حوزه سلامت در مورد بدتر شدن وضعیت سلامتی بیمار هشدار می‌دهند تا در صورت لزوم بتوانند در سریع‌ترین زمان ممکن درمان و اقدامات لازم را آغاز نمایند.

نگاهی به بازار ریزتراشه‌های هوش مصنوعی

از آن‌جایی که کاربرد‌های هوش مصنوعی در بسیاری از صنایع مانند خودروسازی، فولاد، نفت‌وگاز، صنعت برق، حمل‌ونقل، صنعت غذایی، ساختمان، مراقبت‌های بهداشتی،صنعت مالی، تولید و اتوماسیون در سال‌های اخیر اهمیت فزاینده‌ای پیدا کرده است، استفاده از ریزتراشه‌های هوش مصنوعی روز‌به‌روز افزایش یافته و این افزایش استفاده سبب شده است که بازار ریزتراشه‌های هوش مصنوعی در سال‌های اخیر رشد بسیار سریعی را تجربه کند. همچنین برای توسعه انواع مدل‌های زبانی هوش مصنوعی به حجم زیادی از ریزتراشه‌های هوش مصنوعی نیاز است که باعث شده تقاضای این ریزتراشه‌ها به طور قابل توجهی افزایش پیدا کند. نمونه‌ی ساده این بازار را می‌توان در رابطه شرکت‌های OpenAI و Nvidia مشاهده کرد. OpenAI در طرف تقاضا برای توسعه مدل‌های هوش مصنوعی خود موسوم به GPT نیاز به تعداد زیادی ریزتراشه هوش مصنوعی دارد و در طرف عرضه شرکت Nvidia قرار دارد که با توجه به تقاضای بالای این نوع ریزتراشه‌ها، وضعیت مالی مطلوبی را در بازار ایالات متحده و همچنین بازار جهانی ریزتراشه‌های هوش مصنوعی تجربه می‌کند. اندازه بازار جهانی ریزتراشه‌های هوش مصنوعی در سال 2022، 16.86 میلیارد دلار بوده و پیش‌بینی می‌شود که با نرخ رشد مرکب سالانه  29.72 درصد از سال 2023 تا سال 2032 میلادی دارای ارزش بازاری بالغ بر 227.4 میلیارد دلار شود. در شکل 2 این روند قابل مشاهده می‌باشد.

شکل 2: بازار ریزتراشه‌های هوش مصنوعی (بر حسب میلیارد دلار)

امروزه بازیگران زیادی سرمایه‌گذاری‌های عظیمی بر روی ریزتراشه‌ها و محصولات مرتبط با هوش مصنوعی انجام داده‌اند تا بتوانند در آینده سهم بیشتری از این بازار را در اختیار داشته باشند. برخی از بازیگران کلیدی در بازار جهانی ریزتراشه‌های هوش مصنوعی در شکل 3 قابل ‌مشاهده هستند.

شکل 3: شرکت‌های فعال در حوزه تولید ریزتراشه‌های هوش مصنوعی

همچنین استارتاپ‌های بسیار زیادی در حوزه ریزتراشه‌های هوش مصنوعی تأسیس شده‌اند. اگر‌چه بسیاری از این استارتاپ‌ها تازه تأسیس شده‌اند، اما توانسته‌اند سرمایه‌گذاری‌های بسیار زیادی را جذب نمایند که نشانگر خوش‌بینی سرمایه‌گذاران به آینده این فناوری و محصولات است.

جمع بندی

ریزتراشه‌های هوش مصنوعی در حال تبدیل شدن به یکی از کلیدی‌ترین ارکان پیشرفت فناوری در جهان هستند. با توسعه و پیچیده‌تر شدن سیستم‌های هوش مصنوعی، نیاز به پردازش‌های سریع‌تر، دقیق‌تر و با مصرف انرژی کمتر روز به روز بیشتر احساس می‌شود. در این میان، ریزتراشه‌های هوش مصنوعی به‌عنوان قلب این سیستم‌ها عمل می‌کنند و نقشی محوری در افزایش کارایی و گسترش کاربردهای هوش مصنوعی در زمینه‌های مختلف دارند؛ از خودروهای خودران و ربات‌ها تا شهرهای هوشمند و صنعت سلامت.

با رشد سریع این بازار و افزایش تقاضا برای فناوری‌های مبتنی بر هوش مصنوعی، کشورهای توسعه‌یافته و در حال توسعه به سرمایه‌گذاری‌های گسترده در این حوزه روی آورده‌اند. این سرمایه‌گذاری‌ها نه تنها به توسعه زیرساخت‌های فناورانه منجر می‌شود، بلکه به دلیل وابستگی اقتصاد جهانی به فناوری‌های نوین، به عنوان راهی برای حفظ و تقویت رقابت‌پذیری ملی نیز تلقی می‌شود.

کشورهایی مانند ایالات متحده و چین با سرمایه‌گذاری‌های عظیم در تحقیق و توسعه ریزتراشه‌های هوش مصنوعی در صدر این رقابت قرار دارند. با این حال، کشورهای منطقه‌ مانند هند، عربستان سعودی و امارات متحده عربی نیز در این حوزه به سرعت در حال پیشرفت هستند. هند به عنوان یکی از بزرگ‌ترین مراکز فناوری اطلاعات جهان، تمرکز خود را بر تولید و بهینه‌سازی ریزتراشه‌ها و سیستم‌های هوش مصنوعی گذاشته است. عربستان و امارات نیز با سرمایه‌گذاری‌های کلان در حوزه فناوری‌های پیشرفته، به دنبال متنوع‌سازی اقتصاد خود و ایجاد زیرساخت‌های هوشمند برای آینده هستند.

این رقابت جهانی نشان‌دهنده اهمیت روزافزون ریزتراشه‌های هوش مصنوعی در اقتصاد آینده است و نشان می‌دهد که کشورها برای حفظ موقعیت اقتصادی و فناوری خود در جهان، باید به سرمایه‌گذاری در این حوزه توجه ویژه‌ای داشته باشند.

منابع

January 2021, A.L. 05 (n.d.). What is an AI chip? Everything you need to know. [online] TechRadar. Available at: https://www.techradar.com/news/what-is-an-ai-chip-everything-you-need-to-know.

blog.synapticlabs.ai. (n.d.). Silicon Brains: The Rise of AI Chips. [online] Available at: https://blog.synapticlabs.ai/silicon-brains-the-rise-of-ai-chips

Dilmegani, C. (2021). Top 10 AI Chip-makers of 2022: In-depth Guide. [online] research.aimultiple.com. Available at: https://research.aimultiple.com/ai-chip-makers

MacroPolo. (n.d.). Inside an AI Chip. [online] Available at: https://macropolo.org/digital-projects/supply-chain/ai-chips/inside-an-ai-chip/

Khan, S. (2020). AI Chips: What They Are and Why They Matter. [online] Center for Security and Emerging Technology. Available at: https://cset.georgetown.edu/publication/ai-chips-what-they-are-and-why-they-matter/

www.electronicdesign.com. (n.d.). StackPath. [online] Available at: https://www.electronicdesign.com/technologies/embedded/article/21260950/stratview-research-how-are-ai-chips-making-the-world-a-smarter-place.

Terentev, E. (2022). AI chips: What they are, how they work, and which ones to choose? [online] Edged 🟩 Making machines intelligent since 2017. Available at: https://edged.ai/blog/ai-chips/


[1] Artificial Intelligence chip (AI Chip)

[2] Deep Learning

[3] Deep Neural Network (DNN)

[4] Machine learning

[5] Central processing unit (CPU)

[6] Graphics Processing Unit (GPU)

[7] Floating-point operations per second (FLOPS)

[8] Tensor Processing Unit(TPU)

[9] Large model

[10] clock

[11] Graphics processor

[12] Neural Network Processor

[13] Neural Processing Unit

[14] Artificial Intelligence Processing Unit (AI PU)

[15] Static Random-Access Memory

[16] Dynamic random-access memory

[17] Edge artificial intelligence

[18] Application Specific Integrated chip

[19] a Jack of all trades might not be a master of any

[20] Wearables

اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها