皆さん、こんにちは! すえよしです。
2024年11月30日~12月1日に行われた
文部科学大臣杯第5回世界将棋AI電竜戦本戦では
第8位でした!!
今回は、先日、将棋AI開発者の方々とお話をして出た話題の一つである
将棋やチェスのAIで使われている評価関数「NNUE」(やねうら王等に搭載)について、
ディープラーニングとの関係を深掘りしてみたいと思います。
というか、「すえよし的な結論」を先に書きます。
一般的にはNNUEはディープラーニングではない。
だが、NNUEは一般的なMLP(多層パーセプトロン)と同様に、
一般的なディープラーニングと同じ特徴をいくつか持っている。
以下、詳細です。
以下のAI検索エンジン「Felo」を使って確認しました。
Felo - 無料のAI検索エンジン https://felo.ai/search
すえよしの質問とFeloの回答を「gemini-exp-1206」で整形して、以下に書いています。
NNUEって何?ディープラーニングなの?
すえよし: 将棋AIとかチェスで使われているNNUEって知ってる?
Felo:
NNUEについて
NNUE(Efficiently Updatable Neural Network)は、将棋やチェスのAIにおいて使用されるニューラルネットワークベースの評価関数です。この技術は、特にコンピュータ将棋において2018年に初めて導入され、その後チェスエンジンであるStockfishにも適用されました。
NNUEの特徴
効率的な更新: NNUEは、CPU上で効率的に動作し、GPUを必要としません。これにより、広範なハードウェアでの実装が可能です。
構造: NNUEのネットワークは、4つの重み層から構成されており、各層は異なるビット数の整数を使用しています。具体的には、最初の層は16ビット整数、残りの層は8ビット整数です。これにより、計算の効率性が向上しています。
差分計算とSIMD: NNUEは、局面間の差分計算を利用し、SIMD(Single Instruction, Multiple Data)技術を活用することで、高速な評価を実現しています。これにより、局面の評価が迅速に行えるため、特に終盤の局面での強さが際立っています。
NNUEの歴史
将棋への導入: NNUEは、2018年に日本の将棋AI開発者である那須悠氏によって考案され、コンピュータ将棋の大会で初めて使用されました。この技術は、従来の評価関数に比べて非線形な評価を可能にし、より柔軟な局面評価を実現しました。
チェスへの適用: 2020年には、NNUEがチェスエンジンStockfishに移植され、以降、多くのトップチェスエンジンがこの技術を採用しています。これにより、NNUEを搭載したエンジンは、従来の手作り評価関数に比べて競争力を持つようになりました。
まとめ
NNUEは、将棋やチェスのAIにおいて、局面評価の精度と速度を向上させるための重要な技術です。特に、CPU上で効率的に動作する点が大きな利点であり、今後も多くのAIシステムでの利用が期待されています。
すえよし: NNUEってディープラーニングなの?それとも違う?
Felo:
NNUEとディープラーニングの関係
NNUE(Efficiently Updatable Neural Network)は、将棋やチェスのAIにおいて使用される評価関数の一種ですが、ディープラーニングとは異なるアプローチを取っています。以下にその違いと特徴を説明します。
NNUEの特徴
浅いネットワーク構造: NNUEは、通常4層の全結合ネットワークから構成されており、各層は比較的少ないパラメータを持っています。具体的には、最初の層は16ビット整数を使用し、残りの層は8ビット整数を使用します。この構造は、ディープラーニングで一般的な深い畳み込みニューラルネットワーク(CNN)とは対照的です。
効率的な計算: NNUEは、CPU上で効率的に動作し、GPUを必要としません。これにより、一般的なコンピュータでも高いパフォーマンスを発揮できます。NNUEは、局面の評価を迅速に行うために、過去の計算結果を再利用する技術を採用しています。
トレーニング方法: NNUEは、既存の評価関数(例えば、Stockfishの評価)を基にしてトレーニングされます。これは、ディープラーニングのように大量の自己対局データを必要とするわけではなく、手動で調整されたパラメータを活用しています。
ディープラーニングとの違い
深さと複雑さ: ディープラーニングモデルは、通常、数十層から数百層の深いネットワークを使用し、非常に多くのパラメータを持つため、計算リソースを大量に消費します。これに対し、NNUEは浅い構造で、パラメータ数も少なく、計算効率が高いです。
アプローチの違い: ディープラーニングは、特徴抽出と評価を自動的に行う能力が高い一方で、NNUEは従来の評価関数の強みを活かしつつ、ニューラルネットワークの利点を取り入れています。これにより、NNUEは特定の局面に対する評価を迅速に行うことができますが、ディープラーニングのような汎用性は持っていません。
まとめ
NNUEは、ディープラーニングの一部の技術を取り入れていますが、基本的には異なるアプローチを採用しています。NNUEは、浅い全結合ネットワークを使用し、効率的な計算を実現することで、将棋やチェスのAIにおいて高い性能を発揮しています。
すえよし: ディープラーニングの定義の確認をしたい。
- 中間層が多い
- 各層のパラメータが多い
- GPUを必要とする
- 特徴量の抽出や評価を自動的に行う
これらの特徴を持っているものが
ディープラーニングっていう感じなの?
Felo:
ディープラーニングの定義と特徴
ディープラーニング(深層学習)は、機械学習の一分野であり、特に多層のニューラルネットワークを用いてデータから特徴を自動的に抽出し、複雑なパターンを学習する手法です。以下に、ディープラーニングの主要な特徴を詳しく説明します。
ディープラーニングの特徴
中間層が多い: ディープラーニングは、通常、入力層と出力層の間に複数の隠れ層(中間層)を持つ構造をしています。これにより、データの階層的な特徴を学習することが可能になります。一般的には、4層以上の構造が「ディープ」と呼ばれます。
各層のパラメータが多い: 各隠れ層には多数のニューロンが存在し、それぞれのニューロンは重みを持っています。このため、ディープラーニングモデルは非常に多くのパラメータを持ち、これがモデルの表現力を高める要因となります。
GPUを必要とする: ディープラーニングは、大量のデータを処理し、複雑な計算を行うため、通常はGPU(グラフィックス処理装置)を使用します。GPUは並列処理に優れており、ディープラーニングのトレーニングを高速化するために広く利用されています。
特徴量の抽出や評価を自動的に行う: ディープラーニングの大きな利点は、手動で特徴量を設計する必要がなく、モデルがデータから自動的に特徴を学習し、評価を行うことです。これにより、従来の機械学習手法に比べて、より高い精度での予測や分類が可能になります。
まとめ
ディープラーニングは、上記の特徴を持つ技術であり、特に画像認識や音声認識、自然言語処理などの分野で高い性能を発揮しています。したがって、あなたが挙げた特徴は、ディープラーニングの定義に合致しています。
すえよし: ディープラーニングの定義の確認をしたい。
- 中間層が多い
- 各層のパラメータが多い
- GPUを必要とする
- 特徴量の抽出は自動的に行う
- 出力する評価は自動的に行う
これらの特徴を持っているものが
ディープラーニングっていう感じなの?
NNUEって、以下の特徴があるよね。
- 全4層(入力層、中間層2、出力層)
- 各層のパラメータ(入力層「125388」、中間層「512」と「32」、出力層「32」)
- CPUのみでも可能(NNUE-PyTorchを使えばGPUも使える)
- 特徴量はHalfKPとして事前に決めている
- 出力する評価は計算式を事前に決めている
ということは、これらの違いを総合的に見て
NNUEはディープラーニングではない、ということかな?
Felo:
ディープラーニングの定義とNNUEの位置づけ
ディープラーニングは、機械学習の一分野であり、特に多層のニューラルネットワークを用いてデータから特徴を自動的に抽出し、複雑なパターンを学習する手法です。以下に、ディープラーニングの主要な特徴を整理します。
ディープラーニングの特徴
中間層が多い: ディープラーニングは、通常、入力層と出力層の間に複数の隠れ層(中間層)を持ち、これによりデータの階層的な特徴を学習します。一般的には4層以上の構造が「ディープ」とされます。
各層のパラメータが多い: 各隠れ層には多数のニューロンが存在し、それぞれのニューロンは重みを持っています。このため、ディープラーニングモデルは非常に多くのパラメータを持ち、これがモデルの表現力を高める要因となります。
GPUを必要とする: ディープラーニングは、大量のデータを処理し、複雑な計算を行うため、通常はGPU(グラフィックス処理装置)を使用します。GPUは並列処理に優れており、ディープラーニングのトレーニングを高速化するために広く利用されています。
特徴量の抽出と評価を自動的に行う: ディープラーニングの大きな利点は、手動で特徴量を設計する必要がなく、モデルがデータから自動的に特徴を学習し、評価を行うことです。これにより、従来の機械学習手法に比べて、より高い精度での予測や分類が可能になります。
NNUEの特徴
NNUE(Efficiently Updatable Neural Network)は、将棋やチェスのAIにおいて使用される評価関数ですが、ディープラーニングとは異なるアプローチを取っています。以下にNNUEの特徴を示します。
層の構成: NNUEは全4層(入力層、中間層2、出力層)から構成されています。これはディープラーニングの定義における「深さ」には満たない場合があります。
パラメータの数: 各層のパラメータは、入力層が「125388」、中間層が「512」と「32」、出力層が「32」となっています。これにより、NNUEは比較的少ないパラメータで構成されています。
計算資源: NNUEはCPU上で効率的に動作し、GPUを必ずしも必要としません。NNUE-PyTorchを使用すればGPUも利用可能ですが、基本的にはCPUでの運用が可能です。
特徴量の事前設定: NNUEでは、特徴量はHalfKPとして事前に決められています。これは、ディープラーニングのように自動的に特徴を抽出するのではなく、手動で設定された特徴量を使用することを意味します。
出力評価の事前決定: NNUEの出力評価は、計算式を事前に決めて行われます。これも、ディープラーニングのように自動的に評価を行うのとは異なります。
結論
これらの特徴を総合的に見ると、NNUEはディープラーニングの定義には当てはまらないと言えます。NNUEは、浅いネットワーク構造を持ち、特徴量の抽出や評価が事前に設定されているため、ディープラーニングとは異なるアプローチを採用しています。したがって、NNUEはディープラーニングではないと結論づけることができます。
すえよし: NNUEの以下の特徴は正しい?
- 特徴量はHalfKPとして事前に決めている
- 出力する評価は計算式を事前に決めている
ちなみに、評価の計算式は具体的にはどんな感じ?
Felo:
NNUEの特徴と評価計算式
NNUE(Efficiently Updatable Neural Network)は、将棋やチェスのAIにおいて使用される評価関数であり、特定の特徴を持っています。以下に、あなたが挙げた特徴が正しいかどうかを確認し、評価の計算式についても説明します。
NNUEの特徴
特徴量はHalfKPとして事前に決めている: この点は正しいです。NNUEでは、特徴量としてHalfKPを使用しています。HalfKPは、キングの位置と他の駒の位置をエンコードしたもので、局面の情報を効率的に表現するために設計されています。
出力する評価は計算式を事前に決めている: こちらも正しいです。NNUEの出力評価は、事前に決められた計算式に基づいて行われます。具体的には、NNUEは各層の出力を計算し、最終的な評価値を得るために特定のスケーリングを行います。出力層の値は、通常、スケールファクター(例えば、16で割る)を用いて調整され、最終的な評価値が算出されます。
評価の計算式
NNUEの評価計算は、以下のような流れで行われます:
入力層: HalfKP特徴量を入力として受け取ります。これにより、局面の情報がネットワークに供給されます。
隠れ層: 入力層からのデータは、複数の隠れ層を通過します。各隠れ層では、ニューロンの重みを用いて計算が行われ、活性化関数を通じて次の層に出力されます。
出力層: 最終的に出力層で評価値が計算されます。この評価値は、局面の良し悪しを示す数値であり、通常はスケーリングを行った後に出力されます。
具体的な計算式は、各層の重みやバイアス、活性化関数に依存しますが、一般的には以下のような形になります:
$$ ext{Output} = ext{Activation}( ext{Weights} \cdot ext{Input} + ext{Bias}) $$
ここで、Weightsは各層の重み行列、Inputは前の層からの出力、Biasはバイアス項、Activationは活性化関数(例えばReLUなど)です。
まとめ
したがって、あなたが挙げたNNUEの特徴は正しく、評価の計算式も事前に決められた方法に基づいています。NNUEは、効率的に局面を評価するために設計されたシステムであり、特に将棋やチェスのAIにおいて高い性能を発揮しています。
すえよし: ディープラーニングの以下の特徴の確認をしたい。
- 特徴量の抽出は自動的に行う
- 出力する評価は自動的に行う
特徴量の抽出は、各層の重みやバイアス、活性化関数の各値などを
学習することによって調整するという意味で、自動的に行うってことだよね?
出力する評価は、調整された各層の重みやバイアス、活性化関数の各値によって
算出するって認識で合ってる?
Felo:
ディープラーニングの特徴に関する確認
ディープラーニングは、機械学習の一種であり、特に多層のニューラルネットワークを用いてデータから特徴を自動的に抽出し、評価を行う手法です。あなたが挙げた特徴について確認します。
特徴量の抽出は自動的に行う
この点は正しいです。ディープラーニングでは、ニューラルネットワークの各層がデータの特徴を自動的に学習します。具体的には、以下のようなプロセスが行われます:
各層の重みやバイアス、活性化関数の調整: ニューラルネットワークは、トレーニングデータを用いて重みやバイアスを調整します。この調整は、誤差逆伝播法(バックプロパゲーション)を通じて行われ、モデルがデータのパターンを学習することを可能にします。
自動特徴抽出: ディープラーニングモデルは、入力データから低レベルの特徴(エッジや色など)を抽出し、それを基に中間レベルや高レベルの特徴を構築します。このプロセスは、手動で特徴量を設計する必要がなく、モデルが自動的に行います。
出力する評価は自動的に行う
この認識も正しいです。ディープラーニングモデルは、調整された各層の重みやバイアス、活性化関数の値を用いて出力を算出します。具体的には:
出力の算出: 最終的な出力は、各層の出力を次の層に渡し、最終的に出力層で評価値が計算されます。この計算は、各層の重みとバイアスを考慮した上で行われ、活性化関数を通じて非線形性を導入します。
評価の自動化: モデルが学習した後、未知のデータに対しても自動的に評価を行うことができます。これにより、モデルは新しいデータに対しても予測や分類を行うことが可能になります。
まとめ
したがって、あなたの理解は正しいです。ディープラーニングでは、特徴量の抽出と出力の評価が自動的に行われ、これによりモデルはデータから学習し、予測を行う能力を持っています。各層の重みやバイアス、活性化関数の調整が、これらのプロセスの中心的な役割を果たしています。
すえよし: となると、NNUEはディープラーニングか?という疑問について。
1)
CPUのみで行えるかについては、ディープラーニングであるCNNも
CPUのみで計算しようと思えば時間がかかるが可能なので
関係ないという認識。
2)
一般的なディープラーニングと比較しての、NNUEの特徴は以下。
- 全4層(入力層、中間層2、出力層)なのでニューラルネットワークとしては浅い。
- 各層のパラメータもCNNなどに比べて圧倒的に少ない。
- 特徴量はHalfKPなど、事前に決めている。ディープラーニングは汎用性がある。
- 評価は学習によって調整された各層の重みやバイアス、活性化関数の各値を用いるので、ディープラーニングと同様。
ということで、大きな違いとしては
層の数、パラメータの数、特徴量の3点かな?
Felo:
NNUEとディープラーニングの関係について
あなたの疑問に対する回答として、NNUE(Efficiently Updatable Neural Network)がディープラーニングに該当するかどうかを考察します。以下に、あなたのポイントを整理しながら説明します。
1. CPUのみでの計算について
あなたの認識は正しいです。NNUEはCPU上で効率的に動作するように設計されており、ディープラーニングの一部であるCNN(畳み込みニューラルネットワーク)もCPUで計算可能ですが、計算時間が長くなることがあります。したがって、CPUでの計算が可能であることは、NNUEがディープラーニングであるかどうかの決定要因にはなりません。
2. NNUEの特徴とディープラーニングとの比較
あなたが挙げたNNUEの特徴は、ディープラーニングと比較した際の重要なポイントです。以下にそれぞれの特徴を詳述します。
層の数: NNUEは全4層(入力層、中間層2、出力層)で構成されており、一般的なディープラーニングモデルに比べて非常に浅いです。多くのディープラーニングモデルは、数十層から数百層の深さを持つことが一般的です。
パラメータの数: NNUEは約82,000のパラメータを持ち、これはCNNなどのディープラーニングモデルに比べて圧倒的に少ないです。CNNは通常、数百万から数十億のパラメータを持つことが多いです。
特徴量の事前設定: NNUEでは、特徴量(例えばHalfKP)が事前に決められています。これに対し、ディープラーニングはデータから自動的に特徴を学習するため、より汎用性があります。NNUEは特定のタスクに特化した設計であり、事前に設定された特徴量を使用することで効率的に評価を行います。
評価の算出方法: NNUEは、学習によって調整された各層の重みやバイアス、活性化関数を用いて評価を行います。この点では、ディープラーニングと同様のアプローチを取っていますが、NNUEはその構造が浅く、パラメータ数が少ないため、計算効率が高いです。
まとめ
したがって、NNUEはディープラーニングの一種と見なすことができますが、一般的なディープラーニングモデルとは異なる特性を持っています。特に、層の数、パラメータの数、特徴量の設定方法において大きな違いがあります。これらの違いが、NNUEの効率性や特定のタスクへの適応性を生み出していると言えるでしょう。
すえよし: そのまとめだと、NNUEはディープラーニングである、と言っても良いってこと???
それとも、さっき挙げた層の数、パラメータの数、特徴量の3点の違いから、
NNUEはディープラーニングではない、としたほうが良いのかな?
Felo:
NNUEとディープラーニングの関係
あなたの疑問に対して、NNUE(Efficiently Updatable Neural Network)がディープラーニングに該当するかどうかを整理します。
NNUEはディープラーニングか?
1. 定義の違い
NNUEは、ニューラルネットワークの一種ですが、一般的なディープラーニングモデルとは異なる特性を持っています。ディープラーニングは通常、多層のニューラルネットワークを使用し、特徴量を自動的に学習することが特徴です。一方、NNUEは浅い構造(通常4層)で、事前に設定された特徴量(例:HalfKP)を使用します。
2. 層の数とパラメータの数
NNUEは、層の数が少なく、パラメータの数も一般的なディープラーニングモデルに比べて圧倒的に少ないです。これにより、計算効率が高く、特定のタスクに特化した性能を発揮しますが、汎用性は低いとされています。
3. 特徴量の扱い
NNUEでは、特徴量が事前に決められており、モデルが自動的に特徴を抽出するディープラーニングの特性とは異なります。ディープラーニングは、データから自動的に特徴を学習し、より多様なタスクに適応できる能力を持っています。
まとめ
したがって、NNUEはディープラーニングの一種とは言えますが、一般的なディープラーニングモデルとは異なる特性を持つため、完全に同じとは言えません。あなたが挙げた「層の数」「パラメータの数」「特徴量の事前設定」の3点は、NNUEとディープラーニングの重要な違いを示しています。
結論として、NNUEはディープラーニングの一部の技術を利用しているものの、特定の設計と制約により、一般的なディープラーニングとは異なるアプローチを取っているため、ディープラーニングとは言い切れない部分もあります。したがって、NNUEは「ディープラーニングではない」とする方が適切かもしれません。
Felo.aiの回答に書かれていた参考文献
- [1] https://github.com/jdart1/nnue
- [2] https://en.wikipedia.org/wiki/Efficiently_updatable_neural_network
- [3] https://www.4gamer.net/games/999/G999905/20240824004/
- [4] https://www.itmedia.co.jp/news/articles/2203/28/news144_2.html
- [5] https://talkchess.com/viewtopic.php?t=83170
- [6] https://ja.wikipedia.org/wiki/NNUE
- [7] https://select766.hatenablog.com/entry/2024/05/26/173802
- [8] https://qhapaq.hatenablog.com/entry/2018/06/02/221612
- [9] https://yaneuraou.yaneu.com/2020/06/19/stockfish-nnue-the-complete-guide/
- [10] https://www.chessprogramming.org/Stockfish_NNUE
- [11] https://yaneuraou.yaneu.com/2022/06/09/nnue-eval-function-the-dawn-of-a-new-era/
- [12] https://qiita.com/chinoshuta/items/ffc665a37a757ad66d5d
- [13] https://www.chess.com/blog/the_real_greco/evolution-of-a-chess-fish-what-is-nnue-anyway
- [14] https://fairy-stockfish.github.io/nnue/
- [15] https://www.chessprogramming.org/NNUE
- [16] https://yaneuraou.yaneu.com/2024/04/07/how-has-chess-ai-evolved-after-nnue/
- [17] https://note.com/ike610/n/n99df9108b784
- [18] https://saumikn.com/blog/a-brief-guide-to-stockfish-nnue/
- [19] https://qhapaq.hatenablog.com/entry/2018/07/08/193316
- [20] https://news.ycombinator.com/item?id=27733672
- [21] https://lichess.org/forum/general-chess-discussion/what-is-nnue-in-stockfish-what-does-it-do
- [22] https://logmi.jp/brandtopics/324508
- [23] https://cp4space.hatsya.com/2021/01/08/the-neural-network-of-the-stockfish-chess-engine/
- [24] https://www.weblio.jp/content/nnue
- [25] https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q13289269588
- [26] https://chess.stackexchange.com/questions/44897/how-to-train-an-efficiently-updatable-neural-network-nnue
- [27] https://www.reddit.com/r/chess/comments/i7un64/nnue/
- [28] https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q13257285198
- [29] https://yaneuraou.yaneu.com/2020/08/17/nnue-network-size-optimization/
- [30] https://community.deeplearning.ai/t/efficiently-updatable-neural-networks/724172
- [31] https://ainow.ai/2022/06/20/265896/
- [32] https://www.nri.com/jp/knowledge/glossary/lst/ta/deep_learning
- [33] https://ja.wikipedia.org/wiki/%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0
- [34] https://business.ntt-east.co.jp/content/cloudsolution/column-306.html
- [35] https://www.dentsudigital.co.jp/knowledge-charge/articles/2020/1009-deep-learning
- [36] https://jp.mathworks.com/discovery/deep-learning.html
- [37] https://monstar-lab.com/dx/technology/ai-deeplearning/
- [38] https://www.gyakubiki.net/readings/study/5097/
- [39] https://www.ntt.com/bizon/glossary/j-s/deep-learning.html
- [40] https://aismiley.co.jp/ai_news/deep-learning/
- [41] https://www.agaroot.jp/datascience/column/deep-learning/
- [42] https://www.cct-inc.co.jp/koto-online/archives/168
- [43] https://coeteco.jp/articles/10723
- [44] https://www.interviewz.io/blog/deeplearning-casestudy/
- [45] https://ainow.ai/2022/01/28/262453/
- [46] https://www.jdla.org/case/
- [47] https://hblab.co.jp/blog/what-is-deep-learning/
- [48] https://www.braze.co.jp/resources/articles/deep-learning
- [49] https://dl.sony.com/ja/deeplearning/about/
- [50] https://corp.rakuten.co.jp/event/rakutentech/ai/deep-learning.html
- [51] https://www.tramsystem.jp/voice/voice-4270/
- [52] https://dl.sony.com/ja/deeplearning/about/disadvantage.html
- [53] https://www.easiio.com/ja/neural-network-and-deep-learning/
- [54] https://soune.co.jp/dx-glossary/neural-network/
- [55] https://www.weblio.jp/content/%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0
- [56] https://www.softbanktech.co.jp/corp/hr/recruit/articles/138/
- [57] https://note.com/brightiers/n/na31cda9664b5
- [58] https://logmi.jp/brandtopics/324507
- [59] https://www.tryeting.jp/column/6816/
- [60] https://staff.persol-xtech.co.jp/hatalabo/it_engineer/708.html
- [61] https://ainow.ai/2022/06/09/265777/
- [62] https://raw.githubusercontent.com/ynasu87/nnue/master/docs/nnue.pdf
- [63] https://www.apply.computer-shogi.org/wcsc34/appeal/appeal_round2_240503.pdf
- [64] http://www2.computer-shogi.org/journal/CSA_vol30.pdf
- [65] https://itest.5ch.net/mevius/test/read.cgi/bgame/1651723593/169-n
- [66] https://nodchip.hatenablog.com/entry/2021/11/14/000000
- [67] https://ameblo.jp/topstone/entry-12838283604.html
- [68] https://nodchip.hatenablog.com/entry/2023/10/29/000000
- [69] https://github.com/official-stockfish/Stockfish/issues/2915
- [70] https://chessforallages.blogspot.com/2020/11/stockfish-nnue-three-useful-pins.html
- [71] https://www.apply.computer-shogi.org/wcsc28/appeal/appeal_day2_180503.pdf
- [72] https://people.ece.cornell.edu/land/courses/ece5760/FinalProjects/s2024/sk2794_pp497_cy524/ECE%205760%20Final%20Project.html
- [73] https://www.reddit.com/r/chess/comments/jga1k5/can_someone_give_a_brief_synopsis_of_how_the_new/
- [74] https://note.com/m_tamachan_m/n/ndf6e40297cbb
- [75] https://hxim.github.io/Stockfish-Evaluation-Guide/?p=nnue
- [76] https://github.com/official-stockfish/nnue-pytorch/blob/master/docs/nnue.md
- [77] https://chess.stackexchange.com/questions/41925/how-strong-is-stockfishs-positional-understanding-without-ab-search
- [78] https://cp4space