Skip to content

Releases: kobanium/TamaGo

v0.6.2

24 May 02:59
7036cce
Compare
Choose a tag to compare

対局終盤で探索中に"Cannot save move record."で落ちるバグを修正しました。

Fix overflow of move history record.

v0.6.1

07 May 04:56
44dd685
Compare
Choose a tag to compare

下記不具合に対応しました。

  • pipeline.shで使用するget_final_status.pyのアップロード漏れ

また、main.pyにニューラルネットワーク推論時のミニバッチサイズを指定するオプション--batch-sizeを追加しました。
モデルファイルはv0.6.0のものを使用できます。

Fix missing file of get_final_status.py.
Support --batch-size option for inference.

v0.6.0

14 Apr 15:30
bf5b20a
Compare
Choose a tag to compare

Gumbel AlphaZero方式の強化学習をサポートしました。

Support Gumbel AlphaZero style reinforcement learning.

v0.5.0

14 Mar 16:25
3858735
Compare
Choose a tag to compare

探索時間の制御を実装し、time_leftコマンド、time_settingsコマンドをサポートしました。

Support time management function, and GTP command (time_left and time_settings).

v0.4.0

12 Mar 17:10
174d644
Compare
Choose a tag to compare

Gumbel AlphaZeroの自己対戦時に使用する探索手法SHOT (Sequential Halving applied to trees) を実装しました。

Implement search algorithm called Sequential Halving applied to trees (SHOT).

v0.3.1

07 Mar 16:47
b432e91
Compare
Choose a tag to compare

Valueの更新処理のバグを修正しました。

Fix bug for value updating process.

v0.3.0

02 Mar 16:01
3757781
Compare
Choose a tag to compare

AlphaZeroと同じ探索アルゴリズムであるニューラルネットワークを使用したモンテカルロ木探索を実行できるようにしました。
また下記の変更を行いました。

  • Policyの分布に従って着手生成する処理 (v0.2.0, v0.2.1の着手生成処理) を--policy-moveオプションで切り替えられるようにコマンドラインオプションを追加
  • 盤面情報 (GoBoard) クラスのコピー処理追加
  • ニューラルネットワークを使用したGTPプレイヤのデフォルト設定をモンテカルロ木探索を使うように変更

Support Monte-Carlo tree seach with neural networks (like AlphaZero), and following features,

  • Command line option (--policy-move) for move generator with policy distributions.
  • Copy function for GoBoard class.
  • Change default setting of GTP player with Monte-Carlo tree search wit neural network.

v0.2.1

26 Feb 13:44
0bcdf30
Compare
Choose a tag to compare

Residual Blockの構造を変更しました。
v0.2.0に対して+10〜20eloほど強くなっています。

Modify structure of residual block.
v0.2.1 is +10~20elo stronger than v0.2.0.

v0.2.0

25 Feb 15:35
f6abcfb
Compare
Choose a tag to compare

ニューラルネットワークの教師あり学習を実装し、合わせて学習済みモデルのPolicyを利用した着手生成処理を実装しました。
その他の更新点は下記のとおりです。

  • Gogui解析コマンドとしてPolicyの分布の可視化コマンドを実装(数値の表示、色付け)
  • requirements.txtの追加
  • 各関数、メソッドに対して引数、戻り値の型アノテーションを追加

Support supervised learning with neural networks, and following features,

  • Implement GoGUI analyze commands (display_policy_black, display_policy_white, display_policy_black_color, display_policy_white_color)
  • Add requirements.txt
  • Type annotations and return value's annotations

v0.1.0

26 Jan 15:22
9ae8941
Compare
Choose a tag to compare

碁盤のデータ構造を全て実装し、SGFファイル読み込みに対応しました。

  • 3x3近傍の石の配置パターン
  • Zobrist Hashによる局面のハッシュ値生成
  • 着手履歴の保存
  • SGFファイルを読み込む処理の実装
  • load_sgfコマンドのサポート

Implement following features.

  • Go board data structure.
  • 3x3 stone pattern.
  • Saving move record
  • Zobrish hash for positions.
  • Smart game format file reader.
  • support load_sgf GTP command.