普段使っている環境でMoneroをマイニングして効率を計算。
本日のレート、19H/sで一ヶ月1ドル
メインの端末で利用しているThinkPad E460
Core i5 6200Uの1コア=13H/s
※一ヶ月動かしても1ドルにもならない。
Radeon R7 M370でOpenCL=139H/s
※一ヶ月動かして6ドルくらい。 30Wくらいの消費電力から、電気代は540円くらいなので月150円くらいの利益が出る。
Core i3 4330の1コア=44H/s
※一ヶ月で2ドルちょい。
GeForce GTX465=80H/s
※1ヶ月で4ドルちょいだが、消費電力が200Wもあるため、電気代は3600円くらいで3000円以上の損失になる。
Xeon E3 1225v2の1コア=46H/s
4コア=130H/s
3コア=120H/s
※アイドル状態に+40Wくらいなので電気代とほぼトントン。
6200Uのレートが悪いのはマイニングの計算特性によるところが大きい。
6200U:2.67GHz L2=0.5MB L3=3MB
4330:3.5GHz L2=1MB L3=4MB
1225v2:3.4GHz L2=1MB L3=8MB
この結果から、クロックが低くてもキャッシュが潤沢であればハッシュレートが上回ることがある。
特に、L2+L3が3.5MBと5MBとの間に大きな違いがあることから、処理が大規模なためにキャッシュの有効性が非常に大きい事がわかる。
納品前のサーバで試してみた
E5-2620 v3x2
12コア=520H/s→1コアあたり43H/s
2620v3:2.4GHz L2=1.5MB L3=16MB
1スレッドあたり256KB+2.67MBで、3MB弱あることから、XMRマイニングする場合にはスレッドあたり3MB弱のキャッシュが無いと振るわないようだ。
6200Uは、OSとかの部分でキャッシュが持って行かれるために不足している状態で、CPUマイニングするには暫定として4MBで1スレッド、追加スレッドには3MBくらい必要になると考えると良いようだ。
CPUマイニングするにはXeon系のキャッシュの大きいモデルが有効で、4コアであってもキャッシュの少ないi5等は性能が発揮できない。
旧式のGPUマイニングは消費電力で爆死するだけでダメ。 最新のGPUを消費電力重視のチューニングにすれば一応稼げるだろうが、機械の劣化分を補えるか怪しい。
1ヶ月1ドルの電気代で使える電気は・・・4.8kWh
4.8kWhを30日で割ると0.16、24時間で割ると6.7W。
6.7Wで19H/s以上を稼げれば儲けが出る計算。
これは100WくらいのGPUで280H/s稼ぐって事なのでなかなか厳しい。 とりあえず、デスクトップでは低消費電力チューニングが必須、ラップトップのここ2世代くらいの高性能GPUならデフォルトでも稼げるハズ。
※EthereumやZcashとかのGPU効率が良いやつならもう少しマシだが、やっぱりここ2世代くらいのボードじゃないとキツい。 でも、レート変動が大きい事を考えるとマイニングのためだけに機材を用意しても回収する前に乙る可能性も高い。
結論、マイニングに夢を見るな。
サーバなどの用途があって常時稼働している機器で副次的に動かすなら良いかもしれない。
ミニソーラー環境で電気代がフリーなら、売電よりも効率が良いかもしれない。 50Wパネル6枚くらいの環境で、直流給電マシンに入れれば120Wくらいのビデオカード1枚のマシンが動かせるが、もちろん日照条件依存なんで数百円稼げるかな程度。