آیا هوش مصنوعی تهدید جدیدی برای محیط زیست است؟
مارتین جایلز / مولف
تاریخ انتشار
دوشنبه ۷ مرداد ۱۳۹۸ ساعت ۱۹:۵۴
امروزه، میلیونها دیتاسنتر در سرتاسر جهان، نزدیک به 2 درصد برق تولیدی را مصرف میکنند و این آمار شامل تمامی پردازشهایی میشود که روی سرورهای آنها انجام میگیرد. شرکت Applied Materials برآورد کرده که سرورهایی که به پردازشهای مربوط به هوش مصنوعی میپردازند، در حال حاضر فقط یک صدم درصد مصرف جهانی برق را به خود اختصاص دادهاند.
علاوه بر دیکرسون، مدیران اجرایی دیگری هم در این رابطه هشدار دادهاند. آندرس آندرائه از شرکت هواوی هم عقیده دارد که دیتاسنترها تا سال 2025 یک دهم کل برق تولیدی را مصرف خواهند کرد. البته برآورد او مربوط به کل مصارف دیتاسنترها میشود، نه فقط پردازشهای هوش مصنوعی.
جاناتان کومی، از موسسه Rockey Mountain Institute اما خوشبینتر است. او معتقد است که مصرف انرژی دیتاسنترها در چندسال آینده، به رغم رشد فعالیتهای مرتبط با هوش مصنوعی، به نسبت ثابت خواهد ماند.
این پیشبینیهای متفاوت، نشان دهنده اثر نامشخص هوش مصنوعی روی آینده رایانشهای سنگین و تقاضا برای انرژی است.
هوش مصنوعی ذاتا مصرف بالای انرژی را میطلبد. آموزش و اجرای فناوریهایی مانند مدلهای یادگیری عمیق، نیازمند پردازش مقادیر زیادی داده با استفاده از حافظه و پردازشگرهای پرقدرت است.
نتایج بررسیهای گروه تحقیقاتی OpenAI بیان میدارد که میزان توان رایانشی که برای اجرای مدلهای بزرگ هوش مصنوعی لازم است، هر 3.5 ماه دو برابر میشود.
برآوردهای اپلاید متریالز، بنا به اعتراف خود همین شرکت، بدترین حالتی است که در صورت نبود شیوه تفکر جدید در طراحی نرمافزارها و سختافزارها اتفاق بیفتد.
ساندیپ باجیکار، رییس بخش استراتژیهای سازمان و اطلاعات بازار این شرکت میگوید: فرض بر این است که در طول زمان، در ترکیب اطلاعاتی که برای آموزش مدلهای هوش مصنوعی استفاده میشود، تغییر اتفاق بیفتد. وی میافزاید: ویدیوها و سایر تصاویر درصد بالاتری نسبت به متن و دادههای صوتی را به خود اختصاص دادهاند و این درصد رو به افزایش است. پردازش دادههای تصویری به منابع رایانشی بیشتری نیازمند است، بنابراین مصرف انرژی بیشتری هم میطلبد.
والبته به لطف ظهور و پیشرفت فناوریهایی همچون خودروهای خودران و حسگرهای موجود در سایر تجهیزات هوشمند، اطلاعات و دادههایی که نیاز به پردازش دارد، روز به روز در حال افزایش است. گسترش ارتباطات 5G بیسیم نیز سرعت تبادل دادهها از/به مراگز داده را سرعت بخشیده است.
باجیکار میگوید: اینها و سایر رویکرهای فناوری نیاز فوری به استراتژیهای جدید را در مواد و تولید در عصر هوش مصنوعی برجسته میکند.
برخی محققان معتقدند که نیاز هوش مصنوعی به انرژی و توان پردازشی میتواند حتی به یک دردسر زیست محیطی بزرگ تبدیل شد. یک گروه تحقیقاتی از دانشگاه ماساچوست در امهرست، اخیرا نتایج تحقیقی را منتشر کرده که نشان میدهد آموزش مدلهای بزرگ و محبوب هوش مصنوعی، 5 برابر بیش از خودرو یک فرد آمریکایی در تمام طول عمرش، گاز گلخانهای منتشر میکند.
اما پیشبینیهای بدبینانه از چند توسعه مهم در این زمینه که میتواند میزان مصرف انرژی هوش مصنوعی را کاهش دهد، غفلت میکنند. یکی از این دستاوردها، مراکز داده فوق بزرگ (Hyperscale Data center) است که شرکتهایی مانند فیسبوک و آمازون در این زمینه پیشگام هستند. بنا به یک تعریف، دیتاسنترهایی فوق بزرگ محسوب میشوند که بیش از 5هزار سرور و فضایی بیشتر از ده هزار فوت مربع داشته باشند. در این مراکز داده از تعداد زیادی سرور که برای انجام امور مشخصی بهینه سازی شدهاند، استفاده میشود. این سرورها بسیار از نظر انرژی کممصرفتر از سرورهای مهمول در دیتاسنترها هستند که باید امور پردازشی متنوعتری را انجام بدهند. رویکرد بیشتر به دیتاسنترهای فوق بزرگ در کنار دستاورهایی که در خنکسازی و سایر فناوریها اتفاق افتاده، از جمله دلایل مهمی است که مصرف برق دیتاسنترها در چندسال اخیر به نسبت ثابت مانده است.
انواع جدید ریزتراشهها نیز در این زمینه موثر است. پیشبینی اپلاید متریالز حاکی از این است که پردازشهای مرتبط با هوش مصنوعی همچنان روی سختافزارهای موجود اجرا میشود که کارآیی آنها در چند سال آینده به تدریج رو به بهبود میرود. اما تعدادی از استارتاپها در کنار شرکتهایی مانند اینتل و AMD نیز در حال توسعه نیمههادیهایی هستند که از فناوریهایی مانند فوتونیک، برای تامین انرژی شبکههای عصبی و سایر ابزارهای هوش مصنوعی با مصرف انرژی بسیار پایین بهره میبرند.
کومی میگوید: هشدار دهندگان همچنین این واقعیت را در نظر نمیگیرند که برای برخی از فعالیتهای هوض مصنوعی مانند بازشناخت الگو (pattern recognition) خروجی تقریبی مدلها نیز کافی است. این بدان معنی است که دستیابی به خروجی دقیقی تا صدها رقم اعشار لازم نیست و برای چنین دقت پایین عددی مصرف انرژی زیادی هم لازم نخواهد بود.
اما جالب اینجاست که مهمترین عامل در کنترل میزان مصرف انرژی هوش مصنوعی، میتواند خود هوش مصنوعی باشد. گوگل هماکنون با استفاده از فناوری توسعه داده شده در DeepMind (شرکتی که گوگل در سال 2014 خریداری کرد) دیتاسنترهایش را با کارایی بیشتری خنک میکند. هوش مصنوعی به این شرکت کمک کرده که هزینههای خنکسازی دیتاسنترهایش را تا 40 درصد کاهش دهد.
هوش مصنوعی برای بهینه کردن سایر فعالیتهای دیتاسنترها نیز مورد استفاده قرار میگیرد و همچنان که سیستم خنکسازی گوگل موفقیت آمیز بود، این فناوری میتواند در کل بار پردازشی دیتاسنترها نیز مفید واقع شود. این بدان معنا نیست که دیتاسنترها در آینده مصرف انرژی بالایی نخواهند داشت؛ بلکه نشان دهنده این است که برآوردهای صورت گرفته بیش از حد بدبینانه است.
*مارتین جایلز مدیر دفتر MIT Technology Review در سانفرانسیسکو است