#ifndef _LEARN_H_ #define _LEARN_H_ #if defined(EVAL_LEARN) #include // ===================== // 学習時の設定 // ===================== // 以下のいずれかを選択すれば、そのあとの細々したものは自動的に選択される。 // いずれも選択しない場合は、そのあとの細々したものをひとつひとつ設定する必要がある。 // elmo方式での学習設定。これをデフォルト設定とする。 // 標準の雑巾絞りにするためにはlearnコマンドで "lambda 1"を指定してやれば良い。 #define LEARN_ELMO_METHOD // ---------------------- // 更新式 // ---------------------- // AdaGrad。これが安定しているのでお勧め。 // #define ADA_GRAD_UPDATE // 勾配の符号だけ見るSGD。省メモリで済むが精度は…。 // #define SGD_UPDATE // ---------------------- // 学習時の設定 // ---------------------- // mini-batchサイズ。 // この数だけの局面をまとめて勾配を計算する。 // 小さくするとupdate_weights()の回数が増えるので収束が速くなる。勾配が不正確になる。 // 大きくするとupdate_weights()の回数が減るので収束が遅くなる。勾配は正確に出るようになる。 // 多くの場合において、この値を変更する必要はないと思う。 #define LEARN_MINI_BATCH_SIZE (1000 * 1000 * 1) // ファイルから1回に読み込む局面数。これだけ読み込んだあとshuffleする。 // ある程度大きいほうが良いが、この数×40byte×3倍ぐらいのメモリを消費する。10M局面なら400MB*3程度消費する。 // THREAD_BUFFER_SIZE(=10000)の倍数にすること。 #define LEARN_SFEN_READ_SIZE (1000 * 1000 * 10) // 学習時の評価関数の保存間隔。この局面数だけ学習させるごとに保存。 // 当然ながら、保存間隔を長くしたほうが学習時間は短くなる。 // フォルダ名は 0/ , 1/ , 2/ ...のように保存ごとにインクリメントされていく。 // デフォルトでは10億局面に1回。 #define LEARN_EVAL_SAVE_INTERVAL (1000000000ULL) // ---------------------- // 目的関数の選択 // ---------------------- // 目的関数が勝率の差の二乗和 // 詳しい説明は、learner.cppを見ること。 //#define LOSS_FUNCTION_IS_WINNING_PERCENTAGE // 目的関数が交差エントロピー // 詳しい説明は、learner.cppを見ること。 // いわゆる、普通の「雑巾絞り」 //#define LOSS_FUNCTION_IS_CROSS_ENTOROPY // 目的関数が交差エントロピーだが、勝率の関数を通さない版 // #define LOSS_FUNCTION_IS_CROSS_ENTOROPY_FOR_VALUE // elmo(WCSC27)の方式 // #define LOSS_FUNCTION_IS_ELMO_METHOD // ※ 他、色々追加するかも。 // ---------------------- // 学習に関するデバッグ設定 // ---------------------- // 学習時のrmseの出力をこの回数に1回に減らす。 // rmseの計算は1スレッドで行なうためそこそこ時間をとられるので出力を減らすと効果がある。 #define LEARN_RMSE_OUTPUT_INTERVAL 1 // ---------------------- // ゼロベクトルからの学習 // ---------------------- // 評価関数パラメーターをゼロベクトルから学習を開始する。 // ゼロ初期化して棋譜生成してゼロベクトルから学習させて、 // 棋譜生成→学習を繰り返すとプロの棋譜に依らないパラメーターが得られる。(かも) // (すごく時間かかる) //#define RESET_TO_ZERO_VECTOR // ---------------------- // 学習のときの浮動小数 // ---------------------- // これをdoubleにしたほうが計算精度は上がるが、重み配列絡みのメモリが倍必要になる。 // 現状、ここをfloatにした場合、評価関数ファイルに対して、重み配列はその4.5倍のサイズ。(KPPTで4.5GB程度) // double型にしても収束の仕方にほとんど差異がなかったのでfloatに固定する。 // floatを使う場合 typedef float LearnFloatType; // doubleを使う場合 //typedef double LearnFloatType; // float16を使う場合 //#include "half_float.h" //typedef HalfFloat::float16 LearnFloatType; // ---------------------- // 省メモリ化 // ---------------------- // Weight配列(のうちのKPP)に三角配列を用いて省メモリ化する。 // これを用いると、学習用の重み配列は評価関数ファイルの3倍程度で済むようになる。 #define USE_TRIANGLE_WEIGHT_ARRAY // ---------------------- // 次元下げ // ---------------------- // ミラー(左右対称性)、インバース(先後対称性)に関して次元下げを行なう。 // デフォルトではすべてオン。 // KKに対してミラー、インバースを利用した次元下げを行なう。(効果のほどは不明) // USE_KK_INVERSE_WRITEをオンにするときはUSE_KK_MIRROR_WRITEもオンでなければならない。 #define USE_KK_MIRROR_WRITE #define USE_KK_INVERSE_WRITE // KKPに対してミラー、インバースを利用した次元下げを行なう。(インバースのほうは効果のほどは不明) // USE_KKP_INVERSE_WRITEをオンにするときは、USE_KKP_MIRROR_WRITEもオンになっていなければならない。 #define USE_KKP_MIRROR_WRITE #define USE_KKP_INVERSE_WRITE // KPPに対してミラーを利用した次元下げを行なう。(これをオフにすると教師局面が倍ぐらい必要になる) // KPPにはインバースはない。(先手側のKしかないので) #define USE_KPP_MIRROR_WRITE // KPPPに対してミラーを利用した次元下げを行なう。(これをオフにすると教師局面が倍ぐらい必要になる) // KPPPにもインバースはない。(先手側のKしかないので) #define USE_KPPP_MIRROR_WRITE // KKPP成分に対して学習時にKPPによる次元下げを行なう。 // 学習、めっちゃ遅くなる。 // 未デバッグなので使わないこと。 //#define USE_KKPP_LOWER_DIM // ====================== // 教師局面生成時の設定 // ====================== // ---------------------- // 引き分けを書き出す // ---------------------- // 引き分けに至ったとき、それを教師局面として書き出す // これをするほうが良いかどうかは微妙。 // #define LEARN_GENSFEN_USE_DRAW_RESULT // ====================== // configure // ====================== // ---------------------- // elmo(WCSC27)の方法での学習 // ---------------------- #if defined( LEARN_ELMO_METHOD ) #define LOSS_FUNCTION_IS_ELMO_METHOD #define ADA_GRAD_UPDATE #endif // ---------------------- // Learnerで用いるstructの定義 // ---------------------- #include "../position.h" namespace Learner { // PackedSfenと評価値が一体化した構造体 // オプションごとに書き出す内容が異なると教師棋譜を再利用するときに困るので // とりあえず、以下のメンバーはオプションによらずすべて書き出しておく。 struct PackedSfenValue { // 局面 PackedSfen sfen; // Learner::search()から返ってきた評価値 int16_t score; // PVの初手 // 教師との指し手一致率を求めるときなどに用いる uint16_t move; // 初期局面からの局面の手数。 uint16_t gamePly; // この局面の手番側が、ゲームを最終的に勝っているなら1。負けているなら-1。 // 引き分けに至った場合は、0。 // 引き分けは、教師局面生成コマンドgensfenにおいて、 // LEARN_GENSFEN_DRAW_RESULTが有効なときにだけ書き出す。 int8_t game_result; // 教師局面を書き出したファイルを他の人とやりとりするときに // この構造体サイズが不定だと困るため、paddingしてどの環境でも必ず40bytesになるようにしておく。 uint8_t padding; // 32 + 2 + 2 + 2 + 1 + 1 = 40bytes }; // 読み筋とそのときの評価値を返す型 // Learner::search() , Learner::qsearch()で用いる。 typedef std::pair > ValueAndPV; // いまのところ、やねうら王2018 Otafukuしか、このスタブを持っていないが // EVAL_LEARNをdefineするなら、このスタブが必須。 extern Learner::ValueAndPV search(Position& pos, int depth , size_t multiPV = 1 , uint64_t NodesLimit = 0); extern Learner::ValueAndPV qsearch(Position& pos); double calc_grad(Value shallow, const PackedSfenValue& psv); } #endif #endif // ifndef _LEARN_H_