teacup. [ 掲示板 ] [ 掲示板作成 ] [ 有料掲示板 ] [ ブログ ]

 投稿者
 メール
  題名
  内容 入力補助画像・ファイル<IMG>タグが利用可能です。(詳細)
    
 URL
[ ケータイで使う ] [ BBSティッカー ] [ 書込み通知 ]


AlphaGoとカケツの第2局

 投稿者:山下  投稿日:2017年 5月25日(木)12時14分50秒
  対局中です。

英語公式
https://www.youtube.com/watch?v=1U1p4Mwis60
Ayaの形勢判断を時どき載せる予定です。
https://twitter.com/nhk_igo_15bai
【囲碁実況】世界最強は棋士かAIか!? 柯潔九段 vs AlphaGo 第2局
http://live2.nicovideo.jp/watch/lv298512848
 
 

AlphaGoがカケツの第1局

 投稿者:山下  投稿日:2017年 5月23日(火)12時43分48秒
  始まってます。
英語公式
https://www.youtube.com/watch?v=Z-HL5nppBnM
Ayaの形勢判断を時どき載せる予定です。
https://twitter.com/nhk_igo_15bai
【囲碁実況】世界最強は棋士かAIか!? 柯潔九段 vs AlphaGo 第1局
http://live2.nicovideo.jp/watch/lv298444014

 

第2期電王戦 二番勝負 第2局 佐藤天彦叡王 vs PONANZA

 投稿者:山下  投稿日:2017年 5月20日(土)12時09分30秒
  最後の電王戦の佐藤天彦名人とPonanzaの2局目が行われています。
Ponanzaの2手目は初手▲76歩に対して△42玉、が乱数で選ばれたようです。
角換わりから、△62銀~△51銀~△52銀と引く形が斬新で面白いです。

第2期電王戦 二番勝負 第2局 佐藤天彦叡王 vs PONANZA
http://live.nicovideo.jp/watch/lv290110261
連盟による棋譜と中継ブログ
http://live.shogi.or.jp/denou/
第2期電王戦
http://denou.jp/2017/
 

Re: 5月23日~27日にAlphaGoがカケツと対戦

 投稿者:山下  投稿日:2017年 5月20日(土)11時17分25秒
編集済
  DeepMindの公式ページが出来ていました。
動画中継もあるそうです。

The Future of Go Summit
http://events.google.com/alphago2017/

AlphaGo at The Future of Go Summit, 23-27 May 2017
https://deepmind.com/research/alphago/alphago-china/

DeepMind? @DeepMindAI 2h
https://twitter.com/DeepMindAI/status/865518993695625217
> Excited to see what we’ll discover at the Future of Go Summit next week.
> Stay informed on our new webpage #AlphaGo17
 

Re: minimax 探索囲碁プログラム

 投稿者:山下  投稿日:2017年 5月19日(金)17時04分41秒
編集済
  これ面白いですね!
Root8手だけ、とかかなりギャンブルな感じですが、Policyが正確なので
正解の95%ぐらいは?8手でも入ってそうです。
偶数深さの方が少しよさそう、というのは静止探索っぽい効果も入ってるのでしょうか。
昔9路でαβを使っていたとき似たような現象があったような気がします。

> 中間評価関数は value net に policy net の確率を加味

ソースを見たのですが、これがよく分からなかったです。
普通にValueNetのMinMaxだと maxdepth=1 ではPolicyのみに負け越してしまうための苦肉の策?でしょうか
maxdepth=6の探索では影響が小さくなっているようですし。

200手近い終盤ではMCの方が正確なのでそのあたりでMC評価に切り替える、とかもありそうです。
絶芸はMCTS使っていない、というウワサを聞きましたが意外とMinMaxなのかも。
 

minimax 探索囲碁プログラム

 投稿者:HiraBot  投稿日:2017年 5月19日(金)14時09分35秒
  value net と policy net を使用して minimax 探索囲碁プログラムを作成しました
枝刈はαβ枝刈のみ、中間評価関数は value net に policy net の確率を加味しました

minimax と policy net only(KGS 2d - DcnnRasPi) との自己対戦結果は下記の通りです

maxdepth=1, root 8手 読み        558勝 442敗 勝率55.8%  +40elo
maxdepth=2, root 8手 他4手読み   351勝 150敗 勝率70.1%  +148elo
maxdepth=3, root 8手 他4手読み   406勝 116敗 勝率77.8%  +218elo
maxdepth=4, root 8手 他4手読み   670勝  78敗 勝率89.6%  +374elo
maxdepth=5, root 8手 他4手読み   490勝  57敗 勝率89.6%  +374elo
maxdepth=6, root 8手 他4手読み   520勝  20敗 勝率96.3%  +556elo

読み深さが偶数の方が奇数より良いです(相手が打った処で判定した方が良い)
プログラム実行時間は maxdepth=6 にて 1手 1秒前後です(i7-4790k + GTX1060)
maxdepth=6 で KGS 2d に対して +556Elo ですから KGS 4d 程度と思われます
1秒の考慮時間で 4d ならあと一歩で実用になるような気がします
本テストに使用した negamax() 関数は下記 URL からダウンロード出来ます

http://kiyoshifk.dip.jp/kiyoshifk/apk/negamax.zip
 

Weight deacyを最後にちょっとだけかけると効果的?

 投稿者:山下  投稿日:2017年 5月18日(木)23時19分15秒
  今までWeight deacyはなしで学習してたのですが、
ValueNetの学習でtest loss=0.388, train loss=0.365
とちょっと過学習ぽかったので、
weight_decay: 0.0005
base_lr:  0.0025
で学習させると学習の60000iterationぐらいまでtest lossが下がって
その後は上昇しました。
train lossは 0.398 まで単調増加。

最初から weight_decay を小さな値に設定するだけの問題かもしれませんが・・・。
 

Re: 5月23日~27日にAlphaGoがカケツと対戦

 投稿者:山下  投稿日:2017年 5月16日(火)13時24分35秒
編集済
  pandaネットによると下のスケジュールのようです。

持ち時間3時間+秒読み1分5回
第1局 5月23日(火) 11:30~
第2局 5月25日(木) 11:30~
第3局 5月27日(土) 11:30~

ペア碁 5月26日(金) 9:30~
相談碁 5月26日(金)13:30~
http://www.pandanet.co.jp/event/fogs/
 

Re: PolicyNetの9路や13路への流用の方法

 投稿者:Hattori  投稿日:2017年 5月13日(土)12時07分52秒
  予測、学習用ファイルまで見せて説明くださり、ありがとうございます。
全部Convokution層のみの学習ファイルを作って試してみます。
 

Re: PolicyNetの9路や13路への流用の方法

 投稿者:山下  投稿日:2017年 5月12日(金)08時20分28秒
  Caffeの場合だと下のファイルのようになります。
http://www.yss-aya.com/20170512policy.tar.gz

19x19_i49_F128_m1.prototxt   ... 19路用の予測
13x13_i49_F128_m1.prototxt   ... 13路用の予測
9x9_i49_F128_m1.prototxt     ...  9路用の予測
aya_m3.prototxt              ... 19路用の学習用
aya_m3_solver.prototxt       ... 19路用の学習用、学習率などを指定

予測用の
input_dim: 1
input_dim: 49
input_dim: 19
input_dim: 19

が 9路だと
input_dim: 1
input_dim: 49
input_dim: 9
input_dim: 9

の変更だけで9路に対応できます。
全部Convolution層だとこの流用が可能、とのことです。
http://computer-go.org/pipermail/computer-go/2015-December/008324.html

なお、上のファイルでは一番最後のConvolution層の次にもReLUが入ってますが ("relu12_0")
新たに学習、予測する場合はこのReLUは不要です。
 

レンタル掲示板
/240