パラメトリック・リーキー・タン:深層学習のための新しいハイブリッド活性化関数(Parametric Leaky Tanh: A New Hybrid Activation Function for Deep Learning)
田中専務拓海先生、最近部下から「活性化関数を変えるだけで性能が上がる」と聞かされまして、正直疑っているんですが、本当にそんなに重要なんですか?AIメンター拓海素晴らしい着眼点ですね!活性化関数(Activation Function、略称AF、活性化関数)はニューラルネットの“動き方”を