【2023】ディープラーニングかかる電気代は?抑える方法は?

  • このエントリーをはてなブックマークに追加
ディープラーニングの電気代

ディープラーニングはAI研究の最先端を支える技術ですが、ハイテクには相応のエネルギー消費も必要です。AIはコンピューターの高度な演算によって誕生するプログラムですが、これを生成するためにはどれくらいの電気代がかかるのでしょうか?

今回は、ディープラーニング運用時のコストに注目し、電気代の計算方法や、運用コストを削減するためのポイントについて解説します。

ディープラーニングの仕組み

ディープラーニングは「深層学習」という名前でも知られている、最新の機械学習手法の一種です。

通常の機械学習の場合、学習データには事前に加工を施し、タスクに応じたヒントをタグ付けすることで、AIの速やかな学習を促します。

一方で、ディープラーニングは、学習データにヒントを付与せず、AIが自らの力でデータを読み解くことを可能にするものです。独自のアルゴリズムでデータを分析し、人間と同じ、あるいはそれ以上の判断能力を、ディープラーニングはAIに与えることができます。

高度なAI開発には欠かせないディープラーニングですが、それだけに発生するコストも無視できるものではありません。通常の機械学習よりも多くのリソースを必要とするため、十分な環境が整っていなければ、実践的なAIをディープラーニングで開発することは困難です。

ディープラーニングに発生するコスト

具体的に、ディープラーニングによって発生するコストにはどのようなものが挙げられるのでしょうか?

人件費

ディープラーニングはAIの自律的な学習が可能な技術ですが、アルゴリズムを構築したり、パラメーターを調節したりするためには人間の手を借りる必要があります。統計学に詳しいデータサイエンティストや、プログラム構築のためのエンジニアなど、高度なスキルを持った人材を確保しなければならないため、人件費も必然的に高騰します。

GPU本体の購入価格

ディープラーニングの実践において大きなネックとなるのが、GPUの購入費用です。ディープラーニングはとにかく大量のデータを用意した上で、それらを高速で処理する必要があります。

そういった負荷の大きい演算処理を実現するためには、ハイエンドなGPUを用意しなければなりません。

業務用のGPUを導入するとなると、費用はそれだけで数百万円にも数千万円にものぼります。初期費用がかかりすぎてしまうのは、ディープラーニング運用の大きな課題です。

施設利用費・テナント料

大型のGPUを導入する場合は、そのための場所を確保する必要もあります。オフィスにGPUを設置するのであれば、面積に余裕のあるテナントを借りる必要があり、賃貸費用を圧迫します。

近年では、データセンターのようなサーバーの設置に特化した施設も登場していますが、施設利用費が発生するので、継続的な維持管理コストは免れません。

電気代

地味にディープラーニング開発の際に負担となるのが電気代です。大きなGPUサーバーを動かす場合、ただPCを単体で運用するのとは大きく消費エネルギーが異なります。

また、GPUはディープラーニングを実行中、24時間フル稼働させるケースも珍しくないため、その負荷は多大なものとなります。365日GPUをフル稼働させてディープラーニングを実行するのであれば、継続的に電気代が発生すると考えておくべきでしょう。

ディープラーニングにかかる電気代の計算方法

ディープラーニングを実践する場合、具体的にどのような計算に基づいて電気代を算出すれば良いのでしょうか?

ディープラーニングの電気代は、基本的にそのマシンの消費電力に対して1kW当たりの単価を掛け、さらに時間を掛けることで計算できます。たとえば、1,000Wのマシンを使ってディープラーニングを1時間実行した場合、使用する電気量は

  • 1,000W×1h=1,000Wh=1kWh

となります。

2022年12月現在の電気料目安単価は31円/kWhなので、1時間あたり31円がこの場合の電気代の目安です。実際には、地域差や料金プランによって価格は異なるため、増減が発生することも珍しくありません。

ディープラーニングにおける電気代を大きくさせる要因

ディープラーニングを1時間実行する程度では大したコストにはならないようにも思えますが、それではディープラーニングの電気代が無視できないものになる理由はどこにあるのでしょうか?

計算量の多い高度なディープラーニングを実施している

最も大きな要因は、ディープラーニングの計算量がとにかく多いことです。ディープラーニングは他の機械学習手法とは比較にならないほど多くのデータを計算するため、24時間マシンを稼働させることも珍しくありません。

また、高速で計算を行うマシンは、いずれも多くの電気を必要とするモデルが揃います。その結果、1時間あたりの必要な電気量が増えるだけでなく、稼働時間も長くなるため、開発者に多大な電気代をもたらすこととなります。

質の低い電源やケースを採用している

マシン本体のハイパフォーマンスが多くの負荷をもたらすことはもちろん、安価なマシンを使っていると、質の低い電源設備やケースが悪影響を及ぼすこともあります。電気効率や排熱性能が低く、効率的な電気の使用を妨げたり、計算スピードに悪影響を与えたりするためです。

ディープラーニング運用の負担を小さくするためには、できる限り安価にマシンを手に入れることが大切です。ただ、だからといってスペックを確認せずにマシンを購入すると、後に電気コストが上乗せされていき、結果的に費用対効果の面で損をする可能性があります。

そのため、ディープラーニングを実行する際にはある程度性能面も考慮しながら、予算に合ったマシンを手に入れる必要があるでしょう。

最も電気を必要とするAI活用は?

WIREDの特集によると、ディープラーニングを含めたAI活用においては、AIにどんなタスクを実行させるかによって、その負荷が異なるという研究結果も発表されています。

参照元:WIRED

自然言語処理の負荷は大きいとされている

記事によると、複数あるAI活用の中でも、最も負荷が大きいのは自然言語処理です。過去数年間における重要かつ画期的なAIプロジェクトに必要とされる計算能力は、3~4ヶ月ごとにおよそ2倍になり、12年から18年までの間に30万倍に増加した可能性があると指摘しています。

AI開発が盛んに行われており、次々と新しい技術が登場していますが、実際には発表されている以上に多くのAI開発が試行されており、大半は失敗に終わってしまった可能性もあります。

マサチューセッツ大学アマースト校の研究チームが発表した論文によれば、一つの巨大な自然言語処理モデルを訓練するために必要なエネルギーは、1台の車がライフサイクルを通じて消費するエネルギーと変わらない可能性があることもわかっているのです。

AIによって人類の生活はより便利になっている反面、開発や運用にかかるエネルギー消費が、逆に人類の資源を圧迫し、寿命を縮めている可能性があることを忘れてはなりません。

具体的な消費エネルギーを推定することは難しい

また、AI開発にかかる消費エネルギーを具体的に特定することは難しいのも現状です。

調査によると、2030年までに、世界の電気の8パーセントから20パーセントがコンピューターによる計算や通信技術によって消費され、その3分の1をデータセンターが占めるとされています。

データセンターはAI開発のためのサーバーはもちろん、各種クラウドサービス利用や、企業が独自のシステムを運用する上でも活用されているため、そのすべての責任をAIに求めるのは困難であるためです。

とはいえ、AI技術の発展が消費エネルギー全体の増加につながっていることは事実であり、できる限り効率的な運用を推進することが、企業にとっても、地球にとっても必要な取り組みであることは確かです。

ディープラーニングのエネルギー負担を低減させる方法

このような事態に対処するべく、ディープラーニングを実践する上ではどのようなエネルギー負担の低減に取り組むべきなのでしょうか?主な方法としては、次の4つが挙げられます。

質にこだわった設備投資を進める

一つは、質にこだわった設備投資を進めることです。

先ほど紹介したように、質の低いGPU環境の整備は、初期費用こそ安価に抑えられますが、長期的に考えると企業の費用対効果を損なう可能性があります。

そのため、多少お金をかけてでも最新のGPU環境を整備し、エネルギー負担を小さく抑えられるよう努力することが大切です。GPU本体だけでなく、その周辺パーツのスペックにも気を配ると良いでしょう。

不要な計算処理は回避する

ディープラーニングは有限なエネルギーを使って実行する取り組みであるため、不要な計算処理はなるべく控えるのが理想です。プロジェクトにおいてはできるだけ一つのAI開発に注力し、リソースを分散させないことが、エコの面からも業務効率化の面からも重要です。

ディープラーニングを実行してもなかなか成果が出ない場合には、原因究明と問題解決のアプローチの検討に時間をかけ、負荷の小さい開発環境やプロセスを実現しましょう。

消費電力の小さい学習モデルを活用する

最近では、学習モデルの選択によっても消費電力に大きく影響を及ぼすことがわかっています。注目を集めているのが、消費電力を小さく抑えられる学習モデルの活用です。Googleの言語モデルの一種である「Switch Transformer」は、従来よりも小さなエネルギーで、従来どおりのパフォーマンスを発揮できるとして期待されています。

Switch Transformerの特徴は、オープンAI財団の、高性能で話題になったGPT-3をさらに上回る巨大な言語モデルであることです。GPT-3は1,750億パラメーターであったのに対し、Switch Transformerは1兆5,000億パラメーターにも達します。

また、消費電力の面でもGPT-3は1287MWhであるのに対し、Switch Transformerの学習に要する消費電力は179MWhであるなど、非常に効率的であることがわかります。新しい学習モデルを開発するのは容易ではありませんが、常に最新技術に目を配り、効率的な技術を積極的に導入することは、エネルギー節約へ大いに貢献するでしょう。

クラウドGPUを活用する

クラウドGPUの活用も、エネルギー節約の面から有効な方法です。クラウドGPUは自社でGPUを購入する必要がないので、初期費用がかかりません。従量課金制で、使用するリソース分だけ料金が徴収され、コストパフォーマンスにも優れるサービスです。

本体購入に伴う無駄な資源の浪費を抑え、大型のデータセンターを借りたり、テナントを確保したりするコストもかからないため、地球にも企業にも優しい方法といえるでしょう。

まとめ

ディープラーニング運用時の電気代や、その他のコストがどれくらいかかるのかについて解説しました。

高度なAI開発にはディープラーニングが欠かせませんが、その計算処理には膨大な電気エネルギーを必要とします。ディープラーニングマシンの導入には多くの設備投資が必要ですが、以降も継続的にメンテナンス費用や電気代がかかるため、開発にかけた投資を回収することは難しいのが現状です。

ディープラーニング運用時にエネルギー負担を小さくするためのアプローチについてよく理解し、エコな手法を採用することで、少しでも維持管理コストを小さくする努力を積み重ねましょう。

当社モルゲンロットが提供する「M:CPP」は、そんなディープラーニングにかかる負担を小さくするためのクラウドGPUサービスを提供しています。使用料金は大手クラウドGPUサービスの最大1/2まで小さくすることができ、運用コストを小さくしたい企業にとって役立つサービスです。

MCPP

サーバーはAMD製の最新設備を導入しているだけでなく、ユーザーは全員専有サーバーを利用できるため、他のユーザーの干渉を受ける心配はありません。導入に当たってはエンジニアが最適な利用プランを提案するので、ユーザー側でプランを検討する負担も排除できます。

経済的かつ高い計算能力をお求めの際には、当社モルゲンロットまでお気軽にご相談ください。

  • このエントリーをはてなブックマークに追加