NA
[0] Discovering and Achieving Goals via World Models
2021
NA
[1] On the Opportunities and Risks of Foundation Models
2021
NA
[2] GROKKING: GENERALIZATION BEYOND OVERFITTING ON SMALL ALGORITHMIC DATASETS
2021
NA
[3] Patches Are All You Need?
2021
NA
[4] Pay Attention to MLPs
2021
NA
[5] Pathdreamer: A World Model for Indoor Navigation
NA
[6] MultiWOZ--A Large-Scale Multi-Domain Wizard-of-Oz Dataset for Task-Oriented Dialogue Modelling
2018
NA
[7] Mem2seq: Effectively incorporating knowledge bases into end-to-end task-oriented dialog systems
2018
NA
[8] Experience Grounds Language
2020
NA
[9] Continual Lifelong Learning with Neural Networks: A Review
NA
[10] Learning to Predict Without Looking Ahead: World Models Without Forward Prediction
2019
NA
[11] Solving Rubik's Cube with a Robot Hand
2019
NA
[12] Towards ML Engineering: A brief history of TensorFlow Extended (TFX)
Konstantinos (Gus) Katsiapis, Abhijit Karmarkar, Ahmet Altay, Aleksandr Zaks, Neoklis Polyzotis,
Anusha Ramesh, Ben Mathes, Gautam Vasudevan, Irene Giannoumis, Jarek Wilkiewicz, Jiri
Simsa, Justin Hong, Mitch Trott, Noé Lutz, Pavel A. Dournov, Robert Crowe, Sarah Sirajuddin,
Tris Brian Warkentin, Zhitao Li
2020
Google
SybylとTensorFlow Extended (TXF)についての資料。現状のレイヤー構造やこれからのデバイスの相互可用性など。
NA
[13] Challenges in deploying machine learning: A survey of case studies
2020
NA
[14] Hidden technical debt in machine learning systems. Retrieved
2021
NA
[15] Toward trustworthy AI development: Mechanisms for supporting verifiable claim
2021
NA
[16] Unsupervised predictive memory in a goal-directed agent (2018)
Greg Wayne, Chia-Chun Hung, David Amos, Mehdi Mirza, Arun Ahuja, Agnieszka Grabska-Barwinska, Jack Rae, Piotr Mirowski, Joel Z. Leibo, Adam Santoro, Mevlana Gemici, Malcolm Reynolds, Tim Harley, Josh Abramson, Shakir Mohamed, Danilo Rezende, David Saxton, Adam Cain, Chloe Hillier, David Silver, Koray Kavukcuoglu, Matt Botvinick, Demis Hassabis, Timothy Lillicrap
2018
DeepMind
MERLIN (The Memory, RL, and Inference Network)を提案。メモリの機能が予測モデリングによってガイドされる。RNNの潜在変数がメモリに書き込まれ、読み出される。迷路でゴールを見つけるナビゲーションの実験。
NA
[17] Threedworld: A platform for interactive multi-modal physical simulation
2020
NA
[18] Auto-Tuned Sim-to-Real Transfer (2021)
Yuqing Du, Olivia Watkins, Trevor Darrell, Pieter Abbeel, Deepak Pathak
2021
UCB, CMU
大変重要。Sim-to-realだけでなく、リアルがどのようなパラメータかをRGBイメージだけを使って推測する。探索パラメータモデル(SPM)は、観測とアクションの系列とシステムのパラメータが与えられると、そのパラメータが真のパラメータよりも高いか低いかを予測する。
NA
[19] MDETR - Modulated Detection for End-to-End Multi-Modal Understanding
2021
NA
[20] On Linear Identifiability of Learned Representations (2020)
Geoffrey Roeder, Luke Metz, Diederik P. Kingma
2020
Google Brain
識別性(indentifiability)を表現学習の文脈で扱う。ダウンストリームタスクに最適な非線形なデータの表現を発見する。非線形ICAを用いて、識別モデルの族は関数空間において識別可能であることを示す。
NA
[21] Barlow Twins: Self-Supervised Learning via Redundancy Reduction (2021)
Jure Zbontar, Li Jing, Ishan Misra, Yann LeCun, Stéphane Deny
2021
FAIR, NYU
2つのネットワークで自己教師あり学習をして、得られた表現の相関をとって、両方にあるものはロバストであるとする。
NA
[22] Are Pre-trained Convolutions Better than Pre-trained Transformers? (2021)
Yi Tay, Mostafa Dehghani, Jai Gupta, Dara Bahri, Vamsi Aribandi, Zhen Qin, Donald Metzler
ACL 2021
NA
[23] High-performance brain-to-text communication via handwriting (2021)
Nature
2021
NA
[24] Pay Attention to MLPs (2021)
Hanxiao Liu, Zihang Dai, David R. So, Quoc V. Le
2021
NA
[25] Modular Networks: Learning to Decompose Neural Computation
2018
NA
[26] Bootstrap Your Own Latent: A new approach to self-supervised learning
NeurIPS2020
NA
[27] How to represent part-whole hierarchies in a neural network (2021)
Geoffrey Hinton
2021
Google Research, U. Toronto
GLOMアーキテクチャ。重みを共有する多数のコラムから成る。それぞれのコラムは、空間的に局所的な多層のオートエンコーダであり、小さな画像パッチに何が起こっているかを複数のレベルで表す。それぞれのオートエンコーダは隣接するレベルへ、トップダウンデコーダあるいはボトムアップエンコーダで埋め込みを変形する。これらは、全体部分関係を構成することになる。
NA
[28] MLP-Mixer: An all-MLP Architecture for Vision (2021)
Ilya Tolstikhin, Neil Houlsby, Alexander Kolesnikov, Lucas Beyer, Xiaohua Zhai, Thomas Unterthiner, Jessica Yung, Daniel Keysers, Jakob Uszkoreit, Mario Lucic, Alexey Dosovitskiy
2021
Google Brain
普通の多層パーセプトロンにみで、ViTやCNNと匹敵する精度を出す。そのために、チャネルとパッチの転置をしてMLPを適用し、もとに戻してMLPを適用する(いずれもスキップコネクションつき)というのをひとつのブロックにして多層にする。
NA
[29] What Kinds of Functions do Deep Neural Networks Learn? Insights from Variational Spline Theory (2021)
Rahul Parhi and Robert D. Nowak
2021
U. Wisconsin-Madison
ReLU活性関数を用いた深層ニューラルネットワークによって学習される関数の特徴を理解するための変分フレームワークを提案する。
NA
[30] Understanding self-supervised Learning Dynamics without Contrastive Pairs (2021)
Yuandong Tian, Xinlei Chen, Surya Ganguli
2021
FAIR, Stanford U.
BYOLやSimSiamなどのSSLの対照アプローチは、ネガティブなペアがなくてもうまく動くが、どのように表現の崩壊を防いでいるのだろうか。ここでは、単純な線形ネットワークにおける非線形なダイナミクスを分析する。
NA
[31] An Integrated Brain-Machine Interface Platform With Thousands of Channels (2019)
Elon Musk
2019
Neuralink
ニューラリンクのデバイスの紹介。アレイごとに3072エレクトロード。96スレッド。手術ロボット、USB-Cでデータを取り出せるASICのチップの紹介など。
NA
[32] Neural Rough Differential Equations for Long Time Series (2021)
James Morrill, Cristopher Salvi, Patrick Kidger, James Foster, Terry Lyons
2021
U. Oxford, Alan Turing Inst.
ニューラルCDE(neural conetolled differential equations)を拡張して、ニューラルRDE(rough differential equations)を提案する。隠れ状態を導入して、区間のサマリーを表せるようにする。ニューラルCDEは、RNNの連続量類似で、ニューラルODEがResNetの連続量類似であることと同じようなもの。
NA
[33] Visual intracortical and transthalamic pathways carry distinct information to cortical areas (2021)
Antonin Blot, Morgane M Roth, Ioana T Gasler, Mitra Javadzadeh, Fabia Imhof, Sonja B Hofer
2021
UCL, U. Basel, UCSF
視床の後外側核のニューロンが、高次視覚野へ投射しており、V1や上丘からの入力を受け取る。これらは、特定の視覚的特徴や自発運動に調整されており、V1から直接高次視覚野にいく経路と異なる。
NA
[34] Memory transformer (2020)
Mikhail S. Burtsev, Yuri Kuratov, Anton Peganov, Grigory V. Sapunov
2020
Moscow Institute of Physics and Technology
メモリを備えたトランスフォーマ。3種類のアーキテクチャを提案している。WMT-14による翻訳タスクでしか実験してないため、良さが見えづらい。
NA
[35] Inductive biases for deep learning of higher-level cognition (2020)
Anirudh Goyal, Yoshua Bengio
2020
MILA
42ページの大論文。高次認識のための帰納バイアスについて。
2章 帰納バイアスについて。分散表現とか畳み込みなどもそのひとつ。他にも、エージェント、転移学習や継続学習、OODの汎化などの論点がある。
3章 OODの汎化システムに向けた帰納バイアス。意識的・無意識的処理。システム1、システム2やグローバルワークスペース理論など。言語化可能な概念と意味的概念。意味的概念は重要で、それらの知識はモジュール的である。意味空間における分布の局所的な変更。世界の安定的な性質。意味変数の空間における疎なファクタグラフ。変数、例、再利用可能な知識。関連する因果的鎖。コンピュータ・プログラムからのインスピレーション。
4章 因果的依存関係の宣言的知識。独立した因果メカニズム。因果的介入による分布の変化。深層学習のチャレンジ。メタ学習、因果、OOD汎化、速い転移学習の関係。因果モデルの一部としてのアクションとアフォーダンス。
5章 生物学的なインスピレーションと高次認識の特徴。AI研究と認知神経科学のシナジー。アテンション。脳とニューラルネットワークにおけるモジュラリティ。グローバルワークスペース理論。言語レポーティングと接地された言語の学習。遅い処理とOOD問題解決。モジュール間の言語と通信のトポロジ。推論と宣言的知識。関連イベントの系列を通じての推論。
6章 最近と現在の研究。RIM。トップダウンとボトムアップを結びつける学習。オブジェクトファイルとスキーマ。疎な注意バックトラック。因果メカニズムのディスエンタングル学習のためのメタ転移目的。未知の介入による神経因果モデルの学習。
7章 この先のプロジェクト。
8章 過去を振り返る。GOFAIとの関係。
9章 結論。
NA
[36] Object files and schemata: Factorizing declarative and procedural knowledge in dynamical systems (2020)
Anirudh Goyal, Alex Lamb, Phanideep Gampa, Philippe Beaudoin, Sergey Levine, Charles Blundell, Yoshua Bengio, Michael Mozer
2020
Mila, IIT BHU, Element AI, UCB, Deepmind, Google Brain
オブジェクトファイル(OF)というアクティブなモジュールが、ひとつのオブジェクトの状態を管理し、スキーマとよぶ受動的な外部の知識源が状態の更新を行う。ゲームの2つの敵は、スキーマは同じだが、OFが異なる。アテンションを使ってどのOFを更新するかを決める。提案するアーキテクチャ(SCOFFモデル)は、LSTMやGRUなどの完全な互換品であるが、複数のオブジェクトのある環境などでは性能が良い。
NA
[37] Coordination Among Neural Modules Through a Shared Global Workspace (2021)
Anirudh Goyal, Aniket Didolkar, Alex Lamb, Kartikeya Badola, Nan Rosemary Ke, Nasim Rahaman, Jonathan Binas, Charles Blundell, Michael Mozer, Yoshua Bengio
2021
Mila, Deepmind, Max Planck
グローバルワークスペースの雰囲気を実現しようとしている。トランスフォーマで、エキスパートのどれかが共有ワークスペースに書き込める。(アテンションと同じ。)書き込んだ情報を、他のモジュールが使えるようになる。RIMとかトランスフォーマなどを組み合わせたアーキテクチャを探索している。実験は動画や画像で特定の物体に注目したエキスパートを作って、それらをトラックしたり、質問に答えるような問題。
NA
[38] In the Theater of Consciousness: The Workspace of the Mind (1997)
Bernard J. Baars
1997
The Neurosciences Institute, San Diego
グローバルワークスペース理論。意識のシアターのメタファ。自己や知覚、言語や記憶と関係する。ワーキングメモリとは密接に関係。
NA
[39] Transformers with competitive ensembles of independent mechanisms (2021)
Alex Lamb, Di He, Anirudh Goyal, Guolin Ke, Chien-Feng Liao, Mirco Ravanelli, Yoshua Bengio
2021
MILA, MSRA
独立したメカニズムをトランスフォーマに入れる。最初に共有する層があり、その上が、独立なTIM(トランスフォーマと近い)層が続く構造。
NA
[40] Lifelong Language Knowledge Distillation (2020)
Yung-Sung Chuang, Shang-Yu Su, Yun-Nung Chen
2020
National Taiwan U.
ライフロング言語学習(LLL)を蒸留ベースで行う手法。LAMOLが、NLPタスクを文脈・質問・答えをまとめて言語モデルとして行う方法で、これをさらに改良する。WikiSQL, CNN/DailyMail, MultiWOZなどの順番を変えて実験。
NA
[41] Training Vision Transformers for Image Retrieval (2021)
Alaaeldin El-Nouby, Natalia Neverova, Ivan Laptev, Hervé Jégou
2021
FAIR, INRIA
画像検索のためのトランスフォーマの活用。シャムアーキテクチャで双方にViTをいれて、得られた特徴量から対照損失を計算する。
NA
[42] KILT: a Benchmark for Knowledge Intensive Language Tasks (2021)
Fabio Petroni, Aleksandra Piktus, Angela Fan, Patrick Lewis, Majid Yazdani, Nicola De Cao, James Thorne, Yacine Jernite, Vladimir Karpukhin, Jean Maillard, Vassilis Plachouras, Tim Rocktäschel, Sebastian Riedel
2021
FAIR, UCL, LORIA, U. Cambridge, HuggingFace, U. Amsterdam
データセットとタスクの集合。事実チェック、エンティティリンキング3つ、スポット埋め2つ、QA4つ、対話1つ。すべて同じバージョンのWikipediaに基づく。
NA
[43] LambdaNetworks: Modeling Long-Range Interactions Without Attention (2021)
Irwan Bello
2021
Google Research
自己注意と似たラムダ層を提案する。入力と文脈情報の長距離の相互作用を捉える。文脈を線形関数に変換し(ラムダと呼ぶ)、これらの線形関数を入力にそれぞれ適用する。ラムダResネットも提案する。
NA
[44] Latent Retrieval for Weakly Supervised Open Domain Question Answering (2019)
Kenton Lee Ming-Wei Chang Kristina Toutanova
2019
Google Research
オープン検索QA(ORQA)の提案。BERTを使って検索し、そこからQAに答えるのをエンドトゥエンドで行う。
NA
[45] Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
NeurIPS 2020
24 citation
[46] SMASH: One-Shot Model Architecture Search through HyperNetworks
Andrew Brock, Theo Lim, James Ritchie, Nick Weston
ICLR2018 poster
Heriot-Watt U., Renishaw plc
補助的なハイパーネットを学習して、モデルのアーキテクチャに条件づけたモデルの重みを生成することで、アーキテクチャの選択を加速する。メモリーの読み書きを可能にするメカニズムを入れて、さまざまなネットワークの接続パターンを定義できるようにする。
NA
[47] Understanding and simplifying one-shot architecture search (2018)
Gabriel Bender, Pieter-Jan Kindermans, Barret Zoph, Vijay Vasudevan, Quoc Le
ICML 2018
Google Brain
ハイパーネットワークとか強化学習とかでNASをやるのではなく、全部の要素が入った大きなネットワークで学習し、一部をゼロアウトするような方法がうまくいくことを示す。
NA
[48] Disentangled person image generation (2018)
Liqian Ma, Qianru Sun, Stamatios Georgoulis, Luc Van Gool, Bernt Schiele, Mario Fritz
CVPR 2018
Toyota Motor Europe, Max Planck, ETH Zurich
人物の全身画像の生成をするのに、フォアグラウンド、バックグランド、ポーズに分けて生成をする。得られた埋め込み(ディスエンタングルされたもの)に対して、ガウシアンからの埋め込みとの敵対的な学習を行う。
NA
[49] Deforming autoencoders: Unsupervised disentangling of shape and appearance
2018
NA
[50] Stargan v2: Diverse image synthesis for multiple domains
2019
NA
[51] Image-to-image translation for cross-domain disentanglement
NIPS 2018
28 citation
[52] Unsupervised Learning of Disentangled Representations from Video (2017)
E Denton and V Birodkar
NIPS2017
NA
[53] Unsupervised hierarchical disentanglement for fine-grained object generation and discovery (2019)
Krishna Kumar Singh, Utkarsh Ojha, and Yong Jae Lee. Finegan
CVPR2019
NA
[54] Robustly Optimized and Distilled Training for Natural Language Understanding (2021)
Haytham ElFadeel, Stan Peshterliev
2021
Facebook
マルチタスク学習と蒸留を、事前学習の第2ステップにする。ROaDと呼ぶ。マルチタスク事前学習は、9つのタスク。QAやNLI(推論)など。次に蒸留。精度の上がり幅はそれほど大きくはないがどのタスクで測っても上がる。
NA
[55] Going deeper with Image Transformers (2021)
Hugo Touvron, Matthieu Cord, Alexandre Sablayrolles, Gabriel Synnaeve, Hervé Jégou
2021
FAIR, Sorbonne U.
ViTは学習させにくい。そこで2つの点で改善する。1つ目は、FixupやReZeroなどの初期値をいじる方法は安定しないので、事前正規化とワームアップを再導入し、新たにチャネルごとの重みの初期化を導入する。
もうひとつは、クラス埋め込みを入力とともに入れていたのを、中間の層で入れるようにし、自己注意の部分と、クラス注意の部分が明確に分かれるようにする。
かなり細かい工夫でそれぞれわずかな向上だが、全体としてみると大きな向上になっている。
NA
[56] Generating Furry Cars: Disentangling Object Shape and Appearance across Multiple Domains (2021)
Utkarsh Ojha Krishna Kumar Singh Yong Jae Lee
ICLR 2021
UC Davis
毛の生えた車を生成する。異なるドメインからディスエンタングルし、組み合わせる。背景を描いて、形を描いて、見た目を描く。特徴量のヒストグラムが揃うようにロスを設定する。
NA
[57] Fixup Initialization: Residual Learning Without Normalization (2019)
Hongyi Zhang, Yann N. Dauphin, Tengyu Ma
2019
MIT, Google Brain, Stanford U.
フィックスアップという初期化。ResNetでは層が増えると(正規化しないと)重みの分散は指数的に拡大する。なので、Heの初期化をやって、ResNetの層ごとに適正にスケールさせる。これだけ(ルール2)でうまくいくが、他にも、残余ブランチの重みを初期値0にする(ルール1)、スカラー乗数を全部のブランチにいれ、スカラーバイアスを畳み込みの前に入れる(ルール3)、など。
NA
[58] EigenGame: PCA as a Nash Equilibrium
Ian Gemp · Brian McWilliams · Claire Vernade · Thore Graepel
ICLR 2021 outstanding
DeepMind
特異値分解を、対角化した際の対角成分の分散から、非対角成分のペナルティを引いたものを最大化するゲームと捉える。分散的に計算できる。
NA
[59] Rethinking Architecture Selection in Defferentiable NAS
Ruochen Wang, Minhao Cheng, Xiangning Chen, Xiaocheng Tang, Cho-Jui Hsieh
ICLR 2021 outstanding
UCLA, DiDi AI Labs
DARTなどの方法は、特徴マップをノードとし、操作をエッジとするグラフが探索空間となる。探索の際には、モデルの重みと、重みを共有するスーパーネットのアーキテクチャパラメータの両方を最適化する。そのあとに、αというオペレーションの強さを表すパラメータにしたがって、最終的なアーキテクチャが決まる。しかし、このαが、オペレーションの強さを表しているのではなく、悪さをしている。したがって、これを、単純なパーチュベーションに基づくもの(ランダムにピックアップして良ければ採用)に変える。
NA
[60] Score-Based Generative Modeling through Stochastic Differential Equations
Yang Song, Jascha Sohl-Dickstein, Diederik P. Kingma, Abhishek Kumar, Stefano Ermon, Ben Poole
ICLR 2021 outstanding
Stanford U., Google Brain
複雑なデータ分布を、少しずつノイズを入れながら既知の事前分布に変換する確率的微分方程式(SDE)と、その逆時間SDEを提案する。逆時間SDEは、ノイズがはいったデータ分布の時間依存の勾配フィールド(ある種のスコア)にのみ依存する。スコアに基づく生成モデルで、これらのスコアをニューラルネットワークで正確に推定し、数的なSDEソルバをサンプル生成に用いる。
NA
[61] Learning Mesh-Based Simulation with Graph Networks
Tobias Pfaff, Meire Fortunato, Alvaro Sanchez-Gonzalez, Peter W. Battaglia
ICLR 2021 outstanding
Deepmind
シミュレーションを軽く早くする。メッシュの点をグラフのノードに対応させ、それを上手に選ぶ。ロスを最小化するように訓練する。布のはためく様子など。
NA
[62] Training data-efficient image transformers & distillation through attention
2020
NA
[63] Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting (2020)
Haoyi Zhou, Shanghang Zhang, Jieqi Peng, Shuai Zhang, Jianxin Li, Hui Xiong, Wancai Zhang
2020
Beihang U., UCB, Rutgers U., SEDD Company
長い時系列を扱うために、ProbSparseという自己注意のモジュールを工夫し、また蒸留プロセスをいれて、時間とメモリーのオーダが系列長の2乗にならないようにしている。電力消費、変圧器温度、天気などのデータで検証。
NA
[64] 12-in-1: Multi-Task Vision and Language Representation Learning (2019)
Jiasen Lu, Vedanuj Goswami, Marcus Rohrbach, Devi Parikh, Stefan Lee
2019
FAIR, Oregon State U., Georgia Tech
言語と画像に関わる4つのカテゴリからの12のタスクで1つのモデルを評価する。QA, キャプションに基づく画像検索、グラウンドされた参照表現、マルチモーダル検証である。30億パラメータを2.7億に減らすことができ、スコアを向上させることができる。
NA
[65] Modulated Periodic Activations for Generalizable Local Functional Representations (2021)
Ishit Mehta, Michael Gharbi, Connelly Barnes, Eli Shechtman, Ravi Ramamoorthi, Manmohan Chandraker
2021
FAIR
SIRENは、周期関数を使うが、周期関数と内容を分けて学習する。前者をシンセサイザ、後者をモジュレータと呼び、その掛け合わせで表現する。
NA
[66] Attention on Attention for Image Captioning (2019)
Lun Huang, Wenmin Wang, Jie Chen, Xiao-Yong Wei
2019
Peking U.
アテンションで得られた結果とQueryをconcatし、さらにそれを自己アテンションする。つまり、クエリーがうまく結果に反映されているか自体を情報源にできるようにする。
MS-COCOのイメージキャプショニングで従来手法をすべて上回る結果。
NA
[67] Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering (2018)
Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, Lei Zhang
2018
Australian National U., JD AI Research, Microsoft Research, U. Adelaide, Macquarie U.
VQAに対して、CNNで特徴量を取り出して、質問からのLSTMでトップダウンのアテンションを当てる。
NA
[68] Learning Texture Transformer Network for Image Super-Resolution
2020
NA
[69] Improving scalability in systems neuroscience
2021
NA
[70] UNISURF: Unifying Neural Implicit Surfaces and Radiance Fields for Multi-View Reconstruction
2021
NA
[71] The NLP Cookbook: Modern Recipes for Transformer based Deep Learning Architectures (2021)
SUSHANT SINGH, AND AUSIF MAHMOOD
2021
U. Bridgeport, 米国
NLP関係の深層学習技術のまとめ。語彙、アーキテクチャ、NLUアーキテクチャ(トランスフォーマなど、BERT, GPT, 埋め込み)、NLGアーキテクチャ、モデルサイズ削減(DistilBERTやTinyBERT、モバイルBERTなどの蒸留による方法。プルーニングによる方法。量子化による方法)、検索(ゴールデン・リトリーバー、ORQA, REALM, RAG, DPR)、長い系列のモデル(より深い自己注意、トランスフォーマXL、ロングフォーマ、ビッグバード)、計算的に効率的なアーキテクチャ(疎なトランスフォーマ、リフォーマ、ELECTRA、パフォーマなど)、言語モデルのモデリングの分類(自己回帰、オートエンコーダ、seq2seq)、性能比較の言語モデル。
NA
[72] A Mathematical Exploration of Why Language Models Help Solve Downstream Tasks (2021)
Nikunj Saunshi, Sadhika Malladi, Sanjeev Arora
2021
プリンストン大
次の単語を予測するタスクは、単語を予測した上でそれに基づいて分類を行うタスクに数学的に紐付けることができる。
NA
[73] Sparse Attention with Linear Units
2021
NA
[74] Geometry-Free View Synthesis: Transformers and no 3D Priors
2021
NA
[75] Training independent subnetworks for robust prediction
2021
NA
[76] BARF: Bundle-Adjusting Neural Radiance Fields
2021
NA
[77] Direct Fit to Nature: An Evolutionary Perspective on Biological and Artificial Neural Networks (2020)
Uri Hasson, Samuel A. Nastase, Ariel Goldstein
2020
Princeton U.
深層学習では、明示的な人間が理解可能な表現は学習しない。オーバーパラメタライズされたモデルは、進化のプロセスと同じく、単純で倹約的で、多能な頑健な解を提示する。従来の伝統的な科学と異なり、オーバーパラメタライズされたモデルは、現実的な問題を解くために説明性を避けている。これは、計算論的神経科学や認知心理学の仮定や実践に大きな変化を与える。
高次元科学の話に近い。
NA
[78] Reinforcement Learning and Control as Probabilistic Inference: Tutorial and Review (2018)
Sergey Levine
2018
UCB
強化学習や最適制御の問題を、確率グラフィカルモデルの推論(確率的推論あるいは変分推論)の過程と見る。
NA
[79] UniT: Multimodal Multitask Learning with a Unified Transformer (2022)
Ronghang Hu, Amanpreet Singh
2022
FAIR
マルチモーダルなタスク(VQAとか画像の検知とか言語タスクとか)を、同じトランスフォーマで解く。画像のエンコーダとテキストエンコーダをconcatして、デコーダに入れるという構造。
NA
[80] Unsupervised Model Selection for Variational Disentangled Representation Learning (2019)
Sunny Duan, Loic Matthey, Andre Saraiva, Nicholas Watters, Christopher P. Burgess, Alexander Lerchner, Irina Higgins
2019
DeepMind
シンプルで信頼性の高い、教師なしのディスエンタングルなモデル選択の手法を提案する。
同じようなタスクで同じように訓練しても、ディスエンタングルメントには異なるものがある。2つのモデルを見比べて、パーミュテーション、符号の反転、サブセット化などをしても、整合しているなら、スコアを高くするというUDRスコア(Unsupervised Disentanglement Ranking)を計算する。このUDRスコアを、試行するモデル全体にうまく効率的に計算するようにアルゴリズムを組む。
NA
[81] Homomorphic Latent Space Interpolation for Unpaired Image-To-Image Translation
2019
NA
[82] Disentangling Disentanglement in Variational Autoencoders (2019)
Emile Mathieu, Tom Rainforth, N. Siddharth, Yee Whye Teh
2019
U. Oxford
VAEのdisentanglementの汎化、すなわち、潜在表現の分解について述べる。2つの要素からなり、潜在的なエンコーディングは適切なレベルの重なりをもつこと、エンコーディングの集積が(priorによって表される)目的にあわせた構造を作ること、の2つである。
β-VAEは、オーバーラップに対してのコントロールを持つ。
NA
[83] Transforming task representations to allow deep learning models to perform novel tasks (2020)
Andrew K. Lampinen and James L. McClellanda
2020
Stanford U.
新しいタスクに、前のタスクとの関係性によって適応する一般的なフレームワークを提案する。メタマッピングという、タスクを別のタスクにマップする表現を用いる。
NA
[84] The role of Disentanglement in Generalisation (2018)
Milton Llera Montero, Casimir JH Ludwig, Rui Ponte Costa, Gaurav Malhotra, Jeffrey Bowers
ICLR 2018
見慣れたものを組み合わせて新しいものを作ったり理解したりする、組み合わせ汎化能力は、知能の重要な能力であるが、いままでのAIシステムではうまくいっていない。disentanglementの程度によって、さまざまな汎化能力にどのように影響を与えるかをテストする。2つのデータセットで3つのVAEを用いる。その結果、disentanglementの程度によらず、モデルは弱い組み合わせ汎化能力しか示さなかった。したがって、disentangleされた表現を学習することは、解釈性を上げたりダウンストリームのタスクに有用かもしれないが、汎化のより難しい形をサポートするとは言えない。
(ただし、実験は、色、平行移動、回転という限定された要素でやっており、一般的に言えるのかは疑問。)
NA
[85] Learning Energy-Based Models by Diffusion Recovery Likelihood
2020
NA
[86] Object-based attention for spatio-temporal reasoning: Outperforming neuro-symbolic models with flexible distributed architectures
2020
NA
[87] The Spatial Memory Pipeline: a model of egocentric to allocentric understanding in mammalian brains
2020
NA
[88] ViNG: Learning Open-World Navigation with Visual Goals
2020
NA
[89] Neurosymbolic AI: The 3rd Wave (2020)
Artur d'Avila Garcez, Luis C. Lamb
2020
City, U. London, U. Rio Grande do Sul, Brazil
知識表現と推論が、深層学習や健全な説明性と統合される必要があると指摘する人は多い。神経記号計算は、ニューラルネットワークのロバストな学習と、記号表現による推論や説明性を結びつけるための研究領域である。この論文では、神経科学計算の最近の初期的な研究結果を、AIシステムの次世代の重要な要素を同定する目的と関連づける。
NA
[90] Toward Transformer-Based Object Detection
2020
NA
[91] Artificial Intelligence that can run a simulation faithful to physical laws
2020
NA
[92] Extracting Training Data from Large Language Models
2020
NA
[93] Offline Reinforcement Learning from Images with Latent Space Models
2020
NA
[94] Gradient Descent Finds Global Minima of Deep Neural Networks
2019
NA
[95] Compositionality and generalization in emergent languages (2020)
Rahma Chaabouni, Eugene Kharitonov, Diane Bouchacourt, Emmanuel Dupoux, Marco Baroni
2020
FAIR, INRIA, ICREA
マルチエージェントの設定で創発される言語に、新規なプリミティブの組み合わせを言及する能力があるかを調査する。1つめに、十分に大きな入力空間が与えられれば、創発する言語は自然に新規な組み合わせの概念を言及する能力を持つ。2つめに、構成性の程度と汎化の能力は関係がない。3つめに、構成性は汎化には必ずしも必要ないが、言語の伝達では有利になる。
マルチエージェントの設定は、2つのエージェントが2回やりとりして同じものを指せばよいという簡単な設定。
3 citation
[96] The Expressive Power of Neural Networks: A View from the Width (2017)
a
NIPS2017
NA
[97] Learning Incompressible Fluid Dynamics from Scratch - Towards Fast, Differentiable Fluid Models that Generalize
ICLR 2021
NA
[98] MetNet: A Neural Weather Model for Precipitation Forecasting
2020
NA
[99] Learning and Evaluating General Linguistic Intelligence
2019
NA
[100] Recipes for building an open-domain chatbot (2020)
Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu,   Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y-Lan Boureau, Jason Weston
2020
FAIR
大規模なモデルを使って適切な訓練データで学習すれば、注意を引くような話題や、相手のことを聞くこと、知識を示すこと、共感やパーソナリティ、一貫したペルソナなどを提供できることを示す。会話例は印象的。
NA
[101] High-Performance Large-Scale Image Recognition Without Normalization
2021
NA
[102] Alchemy: A structured task distribution for meta-reinforcement learning
2021
NA
[103] Nyströmformer: A Nyström-Based Algorithm for Approximating Self-Attention
2021
NA
[104] Unifying Vision-and-Language Tasks via Text Generation
2021
NA
[105] Muppet: Massive Multi-task Representations with Pre-Finetuning
2021
NA
[106] Liquid Time-constant Networks
2021
NA
[107] Bottleneck Transformers for Visual Recognition
2021
NA
[108] Addressing Some Limitations of Transformers with Feedback Memory
2021
NA
[109] Turing-NLG: A 17-billion-parameter language model by Microsoft
2020
NA
[110] The future of personalized brain stimulation
Nature Medicine 2021
NA
[111] Unsupervised Discovery of Parts, Structure, and Dynamics
ICLR2019
1 citation
[112] Relational Neural Expectation Maximization: Unsupervised Discovery of Objects and their Interactions
Sjoerd van Steenkiste, Michael Chang, Klaus Greff, Jürgen Schmidhuber
ICLR2018 poster
NA
[113] oLMpics -- On what Language Model Pre-training Captures (2020)
Alon Talmor, Yanai Elazar, Yoav Goldberg, Jonathan Berant
2020
Allen Inst., Tel-Aviv U., Bar-Ilan U.
Always-Never質問(例えば、鳥は角を(決して持たない|時々もつ|いつも持つ)という質問)、年齢比較(21際の男は、私が35歳であれば私より(若い|年寄り)だという質問)など7種類の質問に対して、RoVERTa、BERTを比較。Always-Neverはほとんどうまくいかない。年齢比較はそこそこ。ほかにも半数のタスクでほとんどうまくいかない。
NA
[114] Momentum Contrast for Unsupervised Visual Representation Learning (2020)
Kaiming He, Haoqi Fan, Yuxin Wu, Saining Xie, Ross Girshick
CVPR 2020
FAIR
画像に対してBERTのようなキー・値の辞書的な構造をもつ事前の表現学習。
ミニバッチごとに少しずつパラメータを変えていくというモーメンタムを使って、キーを更新。クエリーとキーで辞書を引き出して、コントラスティブロス(同じ画像由来かどうか)を取る。
これを教師なしの事前学習として、ダウンストリームのタスクで教師ありと同程度の精度。(分類で同程度、検出/セグメンテーションで上回る。)
NA
[115] Language models as knowledge bases?
2019
NA
[116] How Can We Know What Language Models Know? (2019)
Zhengbao Jiang, Frank F. Xu, Jun Araki, Graham Neubig
2019
CMU, Bosch Research North America
"DirextX is developted by y"などのクエリーで、言語モデルから知識を取り出す。ウェブマイニングっぽい。
NA
[117] Exploring the limits of transfer learning with a unified text-to-text transformer (2019)
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu
2019
Google
T5。Text-to-Text Transfer Transformer。事前学習、下流タスクともに、テキストからテキストへの変換という形で統一している。例えば、"translate English to German: This is good."などを入力として与え、"Das ist gut."を出力として出す。事前学習もなどとした部分を答えるようにする。クラウドTPUポッド(1024 TPU v3チップ)を用いている。
NA
[118] Self-supervised visual feature learning with deep neural networks: A survey
2020
NA
[119] A Simple Framework for Contrastive Learning of Visual Representations (2020)
Ting Chen, Simon Kornblith, Mohammad Norouzi, Geoffrey Hinton
ICML 2020
Google Research
SimCLRを提案。コントラスティブな自己教師あり学習。特徴としては、(1)データ拡張して同じ表現になるようにする、(2)表現とコントラスティブ損失の学習可能な非線形変換、(3)大きなバッチサイズとステップ数。
ImageNetで、線形な分類器で、76.5%のtop-1精度を出し、これは従来の最新よりも7%よかった。ファインチューンすると、AlexNetと同じくらいだが、100分の1のラベルでよい。
NA
[120] Learning Representations by Maximizing Mutual Information Across Views (2019)
Philip Bachman, R Devon Hjelm, William Buchwalter
2019
Microsoft Research
共有されたコンテキストの異なる視点から得られた特徴の相互情報量を最大化するような自己教師あり学習を行う。画像をランダムにクロップして、そこから「大域的サマリーベクトル」を作り、それが、他のランダムにクロップした画像の予測ができるようにする。 (コンセプトとしてはGQNに近いが、2次元画像であることと、明示的に自己教師ありというところが異なる。)ImageNetの自己教師あり学習で、標準的な線形の評価で68.1%を出し、従来のものより7%良かった。
NA
[121] Universal Transformers (2019)
Mostafa Dehghani, Stephan Gouws, Oriol Vinyals, Jakob Uszkoreit, Lukasz Kaiser
ICLR2019
U. Amsterdam, DeepMind, Google Brain
トランスフォーマは、RNNがうまく扱うような例えば文字列のコピータスクとか、学習時より長い論理演算のタスクとかをうまく解けない。万能トランスフォーマでは、再帰的なモデル(+動的停止)でこれを解決する。エンコーダーとデコーダー双方に、再帰的な(Tステップの)ブロックがある。
NA
[122] The Faculty of Language: What Is It, Who Has It, and How Did It Evolve?
Marc D. Hauser, Noam Chomsky, W. Tecumseh Fitch
Science
2002
チョムスキーの論文。広い言語能力(FLB)と狭い言語能力(FLN)。FLBはセンサモーター系と、概念-意図系。FLNは、再帰的なシンボル操作能力。FLNだけが人間に特有であるなどのいくつかの仮説を説明。
NA
[123] Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations
ICML2019
Francesco Locatello, Stefan Bauer, Mario Lucic, Gunnar Rätsch, Sylvain Gelly, Bernhard Schölkopf, Olivier Bachem
ETH Zurich, Max-Planc, Google
ICML2019のベストペーパー。6つのVAE等を比較。disentangled表現のための教師なし学習は、モデルとデータの帰納的バイアスなしには本質的には不可能。
β-VAE, Annealed VAE, FactorVAE, β-TCVAE, DIP-VAE-I, DIP-VAE-II。
NA
[124] A framework for the quantitative evaluation of disentangled representations (2018)
Cian Eastwood, Christopher Williams
ICLR2018
U. Edinburgh
これまで、ディスエンタングルされた表現のなかでどれがいいのかははっきりしなかった。本論文では、真となる潜在表現が与えられたときに、ディスエンタングルされた表現を定量的に評価するフレームワークを提案する。3つの基準が用いられる。ディスエンタングルメント、完全さ(completeness)、情報量(informativeness)。
NA
[125] Recurrent Independent Mechanisms (2019)
Anirudh Goyal, Alex Lamb, Jordan Hoffmann, Shagun Sodhani, Sergey Levine, Yoshua Bengio, Bernhard Schölkopf
2019
Mila, U. Montreal, MPI Tubingen, UCB
再帰独立メカニズム(RIM)の提案。複数のグループの再帰のセルがほとんど独立に遷移のダイナミクスを形成する。アテンションを通じて、疎に通信する。最も関連あるときにだけ更新する。
セルは現在の入力から読み出すためのクエリーを生成する。複数のセルから勝ったものにアテンションがあたり、読み出される。各セルはそれぞれで更新し、疎に通信する。
コピータスク、シーケンシャルMNISTで良い結果。バウンシングボール、BabyAI、Atariのゲームで高いスコア。
NA
[126] Neuroevolution of Self-Interpretable Agents (2020)
Yujin Tang, Duong Nguyen, David Ha
2020
Google Brain, Tokyo
アテンションの重要性。RLにおいて、画像をパッチにわけ、フラット化し、セルフアテンションでパッチの重要性を出す。それをコントローラに入力し、動作を出力する。セルフアテンションが強力すぎて、コントローラはわずか16ニューロンのLSTMで良い。パッチの重要性のソートやパッチの刈り取りの部分は、進化的アルゴリズムを使う。
非常に小さいパラメータで学習できるようになる。運転ゲームで道路の端に注目するとか、DoomTakeCoverで撃ってくる敵に注目するとか当たり前のことがちゃんと起こっている。
NA
[127] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis (2020)
Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, Ren Ng
2020
UCB, Google Research UC San Diego
連続的な容積的なシーン関数を最適化することで、複雑なシーンの新しいビューを合成する。CNNではなく、フルコネクトのMLP(8層256チャンネル)を使う。5Dの入力(x, y, z, 視点のθ,φ)で、出力は容積密度と視点依存の発光(r, g, b)。これをつかってレンダリングする。レンダリングした結果からロスを定義し、逆に戻す。
そもそも3次元の表現に、連続3次元の暗黙的な表現を使う方法がある。しかし、真の3次元構成へアクセスできないといけない。したがって、2次元の画像だけから暗黙的な形の表現を得るような研究がある。
また、(画像基点の)メッシュベースの表現もある。それから、体積表現を使う方法もある。解像度上げるには、離散のサンプリングを細かくしないといけないので大変。本研究では、連続的な体積を、フルコネクトのNNのなかにエンコードする。
Diffuse Synthetic 360°と、Realistic Synthetic 360°という合成のデータセット。さらにリアルワールドの8つのシーンのデータセット。
SRNやNV, LLFFなどの方法よりも良い。非常にきれいなレンダリングができている。
NA
[128] Learning Finite State Representations of Recurrent Policy Networks
ICLR2019
RNNを状態有限機械に変換する。オートエンコーダをはさむ。面白い。
NA
[129] SCALOR: Generative World Models with Scalable Object Representations (2020)
Jindong Jiang, Sepehr Janghorbani, Gerard de Melo & Sungjin Ahn
ICLR 2020
Rutgers Univ.
空間的なアテンションと、プロポーザル/拒否メカニズムによって、SCALORはたくさんのオブジェクトを同時に扱うことができる。数十のオブジェクトを扱える。動的な背景も扱える。SQUAIR(Kosiorek 2018)をベースにしている。潜在変数をグリッド上に配置している。
NA
[130] A Meta-Transfer Objective for Learning to Disentangle Causal Mechanisms (2020)
Yoshua Bengio, Tristan Deleu, Nasim Rahaman, Nan Rosemary Ke, Sébastien Lachapelle, Olexa Bilaniuk, Anirudh Goyal, Christopher Joseph Pa
2019, ICLR 2020
U. Montreal, CIFAR, Ecole Polytechnique Montreal
学習器がどのくらいの速さで観測したデータの分布の変化に適応できるかが、因果的な構造を見つけて、因果的な変数をディスエンタングルするのに役立つはずだという考えを提案する。つまり、動かすことによって分布が変わるのですぐに分かるということ。以前ちらっといってたプライアとしての身体性というやつだと思う。
NA
[131] Neural Symbolic Reader: Scalable Integration of Distributed and Symbolic Representations for Reading Comprehension (2020)
Xinyun Chen, Chen Lian, Adams Wei Yu, Denny Zhou, Dawn Song, Quoc V. Le
ICLR 2020
UCB, Google Brain
数の計算を必要とするような質問応答を解く。例えば、ある国の人口は35000人で、白人が25000人、アフリカ系アメリカ人が2800人で、...というような文があったときに、白人・アフリカ系アメリカ人以外は何人?のような質問に答える。
手法としては、BERTのようなリーダーと、それを構成的なプログラム(ドメイン特有の言語)に変換するプログラマー(LSTM)を、ニューラルネットワークで構成する。質問に対応する「構成的なプログラム」は、正解データが用意されている。(EMアルゴリズム的にデータ拡張する。)
NA
[132] Experience Grounds Language (2020)
Yonatan Bisk, Ari Holtzman, Jesse Thomason, Jacob Andreas, Yoshua Bengio, Joyce Chai, Mirella Lapata, Angeliki Lazaridou, Jonathan May, Aleksandr Nisnevich, Nicolas Pinto, Joseph Turian
2020
NLPの本質的な議論。言語のコミュニケーションには、世界の経験の共有が必要。世界スコープ(world scope)というのを定義している。
WS1:コーパス(過去)、WS2:インターネットのスケールで世界について書かれていること(現在)、WS3:視覚や音などの知覚、WS4:身体性、WS5:ソーシャル(ヴィトゲンシュタインの言語ゲーム、オースティンのスピーチアクトとか心の理論とか)。
まあ、当然の流れのことを書いているが、数十年前の議論から最新のDLの成果まで関連の議論の引用がしっかりしている。
keyword: ToRead
NA
[133] Up to two billion times acceleration of scientific simulations with deep neural architecture search (2020)
M. F. Kasim, D. Watson-Parris, L. Deaconu, S. Oliver, P. Hatfield, D. H. Froula, G. Gregori, M. Jarvis, S. Khatiwala, J. Korenaga, J. Topp-Mugglestone, E. Viezzer, and S. M. Vinko
2020
U. Oxford, U. Rochester, Yale U. など
学習が計算の省略だという良い例になる論文。シミュレーションを学習することで、計算量を減らす。構造の探索と、重みの学習と2段階にやっている。高エネルギー物理のトムソン散乱とか、融合エネルギー科学のエッジ局所化モード診断とか、10個の科学シミュレーションを対象にしている。
NA
[134] Bootstrap Latent-Predictive Representations for Multitask Reinforcement Learning
ICML 2020
NA
[135] Causal World Models by Unsupervised Deconfounding of Physical Dynamics (2020)
Minne Li, Mengyue Yang, Furui Liu, Xu Chen, Zhitang Chen, Jun Wang
2020
UCL, Huawei Noah's Ark Lab
初期条件や介入が違っていたら起こっていたかもしれないことを予測する。つまり「夢を見る」。what-ifに答える。物体検知して、オブジェクトの関係をGNNでモデル化するのと、遷移をRNNでモデル化している。実験は複数のボールの転がり方。コンセプトはいいが、結果はトイモデルっぽい。
NA
[136] Learning to Predict Without Looking Ahead: World Models Without Forward Prediction (2019)
C. Daniel Freeman, Luke Metz, David Ha
NeurIPS2019
Google Brain
観測ドロップアウトという方法を提案。従来の強化学習に、エージェントが観測できる能力に制限を加える。エージェントが観測のギャップを埋めるのに世界モデルを使わないといけないようにする。将来を予測せよという目的でなく、得られた世界モデルは環境でうまく行動することに役立つ。
NA
[137] PDE-Driven Spatiotemporal Disentanglement (2021)
Jérémie Donà, Jean-Yves Franceschi, Sylvain Lamprier, Patrick Gallinari
ICLR 2021
Sorbonne U., Paris, France
偏微分方程式(PDE)を、時間・空間の2つに分けてそれぞれ学習する。
NA
[138] Self-supervised Adversarial Robustness for the Low-label, High-data Regime
ICLR 2021
NA
[139] Emergent Symbols through Binding in External Memory (2021)
Taylor W. Webb, Ishan Sinha, Jonathan D. Cohen
ICLR 2021
UCLA, Princeton
創発記号結合ネットワーク(ESBN)を提案する。このアーキテクチャは2つの処理から成り、ひとつは具体的なエンティティの学習された埋め込みを保持し、もうひとつはタスク関連変数を処理/表現することを学習する再帰のコントローラである。
NA
[140] Long Range Arena: A Benchmark for Efficient Transformers
ICLR 2021
NA
[141] Solving Mixed Integer Programs Using Neural Networks
2020
NA
[142] Relative Variational Intrinsic Control (2020)
Kate Baumli, David Warde-Farley, Steven Hansen, Volodymyr Mnih
AAAI 2020
DeepMind
題名の通りRVICという目的を、スキル学習のために設定。エージェントの環境への関係をどのように変えるかという点で区別可能かということでインセンティブをつける。
NA
[143] Variational Intrinsic Control (2016)
Karol Gregor, Danilo Jimenez Rezende, Daan Wierstra
2016
DeepMind
教師なしの強化学習のために、エージェントの内発的なオプションの集合を見つける方法を提案する。この集合は、エージェントが到達することのできる異なる状態の数を最大化することで学習され、オプションの集合と、オプションの終了状態の相互情報量で測られる。
つまり、行動によって何らかの影響を与えられる、というのを学習しておくことで、外的な報酬が与えられたときにもうまく振る舞えるようになる。
NA
[144] PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable Physics (2021)
Zhiao Huang, Yuanming Hu, Tao Du, Siyuan Zhou, Hao Su, Joshua B. Tenenbaum, Chuang Gan
ICLR 2021
US San Diego, MIT, Peking U.
柔らかいものを操作する微分可能なシミュレータ環境。ペンで文字を書く、ピザ生地を伸ばす、はしで物を掴む、ロープで縛るなど。
NA
[145] Hopper: Multi-hop Transformer for Spatiotemporal Reasoning (2021)
Honglu Zhou, Asim Kadav, Farley Lai, Alexandru Niculescu-Mizil, Martin Renqiang Min, Mubbasir Kapadia, Hans Peter Graf
ICLR 2021
Rutgers U., NEC Laboratories America
物体検出をして(DETR)、物体をトラッキングし、これをもとにトランスフォーマで質問に答える。かなり複雑な構造。複数の情報から結論を導く推論をマルチホップと言っている。
NA
[146] End-to-End Egospheric Spatial Memory (2021)
Daniel Lenton, Stephen James, Ronald Clark, Andrew J. Davison
ICLR 2021
Dyson Robotics Lab, Imperial College London
パラメータフリーの、自己球体空間メモリ(Egosperic Spatial Memory; ESM)を提案する。エージェントの周りの自己中心的な球体をメモリにエンコードする。極と方位的な2つの表現を使って量子化し、あとで混ぜる。
NA
[147] Pre-training Text-to-Text Transformers for Concept-centric Common Sense
ICLR 2021
NA
[148] Knowledge Distillation as Semiparametric Inference
ICLR 2021
蒸留のプロセスを、真のクラス確率を局外関数(nuisance function; 直接の興味の対象ではない関数)、教師の確率をプラグイン推定ととらえて、生徒のモデルを学習するとみなすことができる。これによって、予測の精度保証を示すことができる。
NA
[149] Spatially Structured Recurrent Modules
ICLR 2021
NA
[150] Meta Attention Networks: Meta-Learning Attention to Modulate Information Between Recurrent Independent Mechanisms
ICLR 2021
NA
[151] Grounded Language Learning Fast and Slow (2021)
Felix Hill, Olivier Tieleman, Tamara von Glehn, Nathaniel Wong, Hamza Merzic, Stephen Clark
ICLR 2021
DeepMind
シミュレートされた3D環境での言語学習。2つのフェーズから成り、エージェントが動いて何かの物体に出会ったときに、その名前を教えてもらえるフェーズ。次が、特定のものを取ってきなさいと命令されるフェーズ。
マルチモーダル(ビジョンと言語)がお互いにKey, Valueとなるようなモデルを提案。
NA
[152] Control-Aware Representations for Model-based Reinforcement Learning
ICLR 2021
NA
[153] Hopfield Networks is All You Need
ICLR 2021
NA
[154] Generative Language-Grounded Policy in Vision-and-Language Navigation with Bayes' Rule
ICLR 2021
NA
[155] SSD: A Unified Framework for Self-Supervised Outlier Detection (2021)
Vikash Sehwag, Mung Chiang, Prateek Mittal
ICLR 2021
Princeton U., Purdue U.
自己教師あり学習を使ってOODを行う。自己教師あり部分は、SimCLRのNT-Xent関数を使う。クラスタリングしてマハラノビス距離を取る。
NA
[156] Ask Your Humans: Using Human Instructions to Improve Generalization in Reinforcement Learning
ICLR 2021
NA
[157] Creative Sketch Generation
ICLR 2021
NA
[158] Concept Learners for Few-Shot Learning
ICLR 2021
NA
[159] Neural Spatio-Temporal Point Processes
ICLR 2021
NA
[160] Distilling Knowledge from Reader to Retriever for Question Answering
ICLR 2021
NA
[161] Self-supervised Representation Learning with Relative Predictive Coding
ICLR 2021
NA
[162] What Should Not Be Contrastive in Contrastive Learning
ICLR 2021
NA
[163] Neural Architecture Search on ImageNet in Four GPU Hours: A Theoretically Inspired Perspective
ICLR 2021
NA
[164] On the Transfer of Disentangled Representations in Realistic Settings
ICLR 2021
NA
[165] SEED: Self-supervised Distillation For Visual Representation
ICLR 2021
NA
[166] CausalWorld: A Robotic Manipulation Benchmark for Causal Structure and Transfer Learning (2021)
Ossama Ahmed, Frederik Träuble, Anirudh Goyal, Alexander Neitz, Yoshua Bengio, Bernhard Schölkopf, Manuel Wüthrich, Stefan Bauer
ICLR 2021
ETH Zurich, MPI Tubingen, MILA
押す、取り出す、重ねるなどの操作ができる。環境の生成モデルで実現しており、重さや形などを変えられる。なので、カリキュラムを作ったり、汎化性能を確かめるのに便利。環境のプロパティを変えることで介入できることが重要で、それによって因果構造や転移学習の研究ができるという主張。
NA
[167] A Mathematical Exploration of Why Language Models Help Solve Downstream Tasks
ICLR 2021
NA
[168] Representation Learning for Sequence Data with Deep Autoencoding Predictive Components
ICLR 2021
NA
[169] RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs
ICLR 2021
NA
[170] Teaching with Commentaries
ICLR 2021
NA
[171] Recurrent Independent Mechanisms
ICLR 2021
NA
[172] Counterfactual Generative Networks
ICLR 2021
NA
[173] Unsupervised Representation Learning for Time Series with Temporal Neighborhood Coding
ICLR 2021
NA
[174] Factorizing Declarative and Procedural Knowledge in Structured, Dynamical Environments
ICLR 2021
NA
[175] Neural ODE Processes
ICLR 2021
NA
[176] GANs Can Play Lottery Tickets Too
ICLR 2021
NA
[177] In-N-Out: Pre-Training and Self-Training using Auxiliary Information for Out-of-Distribution Robustness
ICLR 2021
NA
[178] Learning What To Do by Simulating the Past
ICLR 2021
NA
[179] ALFWorld: Aligning Text and Embodied Environments for Interactive Learning
ICLR 2021
NA
[180] Grounding Physical Object and Event Concepts Through Dynamic Visual Reasoning
ICLR 2021
NA
[181] Long Live the Lottery: The Existence of Winning Tickets in Lifelong Learning
ICLR 2021
NA
[182] Multi-Prize Lottery Ticket Hypothesis: Finding Accurate Binary Neural Networks by Pruning A Randomly Weighted Network
ICLR 2021
NA
[183] Learning Task-General Representations with Generative Neuro-Symbolic Modeling
ICLR 2021
NA
[184] gradSim: Differentiable simulation for system identification and visuomotor control
ICLR 2021
NA
[185] Adaptive Procedural Task Generation for Hard-Exploration Problems
ICLR 2021
NA
[186] Variational Intrinsic Control Revisited
ICLR 2021
NA
[187] Grounding Language to Autonomously-Acquired Skills via Goal Generation
ICLR 2021
NA
[188] Unsupervised Discovery of 3D Physical Objects
ICLR 2021
NA
[189] Generalized Energy Based Models
ICLR 2021
NA
[190] CoCo: Controllable Counterfactuals for Evaluating Dialogue State Trackers
ICLR 2021
NA
[191] Understanding Over-parameterization in Generative Adversarial Networks
ICLR 2021
NA
[192] On the role of planning in model-based deep reinforcement learning
ICLR 2021
NA
[193] CoCon: A Self-Supervised Approach for Controlled Text Generation
ICLR 2021
NA
[194] Anatomy of Catastrophic Forgetting: Hidden Representations and Task Semantics
ICLR 2021
NA
[195] Self-Supervised Learning of Compressed Video Representations
ICLR 2021
NA
[196] Learning "What-if" Explanations for Sequential Decision-Making
ICLR 2021
NA
[197] Improving Transformation Invariance in Contrastive Representation Learning
ICLR 2021
NA
[198] Unsupervised Object Keypoint Learning using Local Spatial Predictability
ICLR 2021
NA
[199] Generalization in data-driven models of primary visual cortex
ICLR 2021
NA
[200] Mathematical Reasoning via Self-supervised Skip-tree Training
ICLR 2021
NA
[201] Image Augmentation Is All You Need: Regularizing Deep Reinforcement Learning from Pixels
ICLR 2021
NA
[202] Disentangled Recurrent Wasserstein Autoencoder
ICLR 2021
NA
[203] Generalization bounds via distillation
ICLR 2021
NA
[204] Meta-GMVAE: Mixture of Gaussian VAE for Unsupervised Meta-Learning
ICLR 2021
NA
[205] On Self-Supervised Image Representations for GAN Evaluation
ICLR 2021
NA
[206] Self-supervised Visual Reinforcement Learning with Object-centric Representations
ICLR 2021
NA
[207] Memory Optimization for Deep Networks
ICLR 2021
NA
[208] Augmenting Physical Models with Deep Networks for Complex Dynamics Forecasting
ICLR 2021
NA
[209] Contrastive Explanations for Reinforcement Learning via Embedded Self Predictions
ICLR 2021
NA
[210] Why Are Convolutional Nets More Sample-Efficient than Fully-Connected Nets?
ICLR 2021
NA
[211] Iterated learning for emergent systematicity in VQA
ICLR 2021
NA
[212] Model-Based Visual Planning with Self-Supervised Functional Distances
ICLR 2021
NA
[213] VAEBM: A Symbiosis between Variational Autoencoders and Energy-based Models
ICLR 2021
NA
[214] Autoregressive Entity Retrieval
ICLR 2021
NA
[215] Mutual Information State Intrinsic Control
ICLR 2021
NA
[216] Image GANs meet Differentiable Rendering for Inverse Graphics and Interpretable 3D Neural Rendering
ICLR 2021
NA
[217] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
2020, ICLR 2021
NA
[218] SMiRL: Surprise Minimizing Reinforcement Learning in Unstable Environments
ICLR 2021
NA
[219] Evolving Reinforcement Learning Algorithms
ICLR 2021
NA
[220] Deformable DETR: Deformable Transformers for End-to-End Object Detection
ICLR 2021
NA
[221] Invariant Representations for Reinforcement Learning without Reconstruction
ICLR 2021
NA
[222] Do 2D GANs Know 3D Shape? Unsupervised 3D Shape Reconstruction from 2D Image GANs
ICLR 2021
NA
[223] When Do Curricula Work?
ICLR 2021
NA
[224] Learning to Reach Goals via Iterated Supervised Learning
ICLR 2021
NA
[225] Learning Generalizable Visual Representations via Interactive Gameplay
ICLR 2021
NA
[226] Meta-learning in natural and artificial intelligence
2020
NA
[227] Using Unity to Help Solve Intelligence
2020
NA
[228] Learning rich touch representations through cross-modal self-supervision
CoRL 2020
NA
[229] Self-Supervised MultiModal Versatile Networks
2020
NA
[230] Representation Learning via Invariant Causal Mechanisms
2020
NA
[231] S3K: Self-Supervised Semantic Keypoints for Robotic Manipulation via Multi-View Consistency
2020
NA
[232] Do Transformers Need Deep Long-Range Memory
2020
NA
[233] What can I do here? A Theory of Affordances in Reinforcement Learning
ICML 2020
NA
[234] An empirical investigation of the challenges of real-world reinforcement learning
2020
NA
[235] Visual Grounding in Video for Unsupervised Word Translation
2020
NA
[236] PolyGen: An Autoregressive Generative Model of 3D Meshes
ICML 2020
NA
[237] Extending Machine Language Models toward Human-Level Language Understanding
2019
NA
[238] A distributional code for value in dopamine-based reinforcement learning
Nature 2020
NA
[239] Untangling tradeoffs between recurrence and self-attention in artificial neural networks
NeurIPS2020
NA
[240] Self-supervised Co-Training for Video Representation Learning
NeurIPS2020
NA
[241] SLIP: Learning to predict in unknown dynamical systems with long-term memory
NeurIPS2020
NA
[242] Self-Supervised MultiModal Versatile Networks
NeurIPS2020
NA
[243] On Second Order Behaviour in Augmented Neural ODEs
NeurIPS2020
NA
[244] On Numerosity of Deep Neural Networks
NeurIPS2020
NA
[245] Deep reconstruction of strange attractors from time series
NeurIPS2020
NA
[246] Prophet Attention: Predicting Attention with Future Attention
NeurIPS2020
NA
[247] Rethinking Pre-training and Self-training
NeurIPS2020
NA
[248] Learning About Objects by Learning to Interact with Them
NeurIPS2020
NA
[249] Dissecting Neural ODEs
NeurIPS2020
NA
[250] Hierarchical Quantized Autoencoders
NeurIPS2020
NA
[251] Unsupervised Learning of Object Landmarks via Self-Training Correspondence
NeurIPS2020
NA
[252] AI Feynman 2.0: Pareto-optimal symbolic regression exploiting graph modularity
NeurIPS2020
NA
[253] Neural Dynamic Policies for End-to-End Sensorimotor Learning
NeurIPS2020
NA
[254] The Power of Predictions in Online Control
NeurIPS2020
NA
[255] Cross-lingual Retrieval for Iterative Self-Supervised Training
NeurIPS2020
NA
[256] Optimal Lottery Tickets via Subset Sum: Logarithmic Over-Parameterization is Sufficient
NeurIPS2020
NA
[257] Ode to an ODE
NeurIPS2020
NA
[258] Demystifying Contrastive Self-Supervised Learning: Invariances, Augmentations and Dataset Biases
NeurIPS2020
NA
[259] Unsupervised Representation Learning by Invariance Propagation
NeurIPS2020
NA
[260] Tree! I am no Tree! I am a low dimensional Hyperbolic Embedding
NeurIPS2020
NA
[261] NVAE: A Deep Hierarchical Variational Autoencoder
NeurIPS2020
NA
[262] Learning Disentangled Representations and Group Structure of Dynamical Environments
NeurIPS2020
NA
[263] CrossTransformers: spatially-aware few-shot transfer
NeurIPS2020
NA
[264] On the universality of deep learning
NeurIPS2020
NA
[265] f-Divergence Variational Inference
NeurIPS2020
NA
[266] What Did You Think Would Happen? Explaining Agent Behaviour through Intended Outcomes
NeurIPS2020
NA
[267] Pre-training via Paraphrasing
NeurIPS2020
NA
[268] Towards Neural Programming Interfaces
NeurIPS2020
NA
[269] Synthesize, Execute and Debug: Learning to Repair for Neural Program Synthesis
NeurIPS2020
NA
[270] Counterfactual Contrastive Learning for Weakly-Supervised Vision-Language Grounding
NeurIPS2020
NA
[271] Learning to Prove Theorems by Learning to Generate Theorems
NeurIPS2020
NA
[272] Neural Execution Engines: Learning to Execute Subroutines
NeurIPS2020
NA
[273] Deep Reinforcement Learning and its Neuroscientific Implications
Neuron 2020
NA
[274] Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and Reasoning
NeurIPS2020
NA
[275] High-Throughput Synchronous Deep RL
NeurIPS2020
NA
[276] Adversarial Sparse Transformer for Time Series Forecasting
NeurIPS2020
NA
[277] Multi-agent active perception with prediction rewards
NeurIPS2020
NA
[278] Disentangling Human Error from Ground Truth in Segmentation of Medical Images
NeurIPS2020
NA
[279] The Lottery Ticket Hypothesis for Pre-trained BERT Networks
NeurIPS2020
NA
[280] STEER : Simple Temporal Regularization For Neural ODE
NeurIPS2020
NA
[281] See, Hear, Explore: Curiosity via Audio-Visual Association
NeurIPS2020
NA
[282] Linear Disentangled Representations and Unsupervised Action Estimation
NeurIPS2020
NA
[283] Video Frame Interpolation without Temporal Priors
NeurIPS2020
NA
[284] SurVAE Flows: Surjections to Bridge the Gap between VAEs and Flows
NeurIPS2020
NA
[285] Memory-Efficient Learning of Stable Linear Dynamical Systems for Prediction and Control
NeurIPS2020
NA
[286] What Makes for Good Views for Contrastive Learning?
NeurIPS2020
NA
[287] On Second Order Behaviour in Augmented Neural ODEs
NeurIPS2020
NA
[288] Language-Conditioned Imitation Learning for Robot Manipulation Tasks
NeurIPS2020
NA
[289] Learning Physical Graph Representations from Visual Scenes
NeurIPS2020
NA
[290] Hybrid Models for Learning to Branch
NeurIPS2020
NA
[291] Solver-in-the-Loop: Learning from Differentiable Physics to Interact with Iterative PDE-Solvers
NeurIPS2020
NA
[292] Implicit Neural Representations with Periodic Activation Functions (2020)
Vincent Sitzmann, Julien N. P. Martel, Alexander Bergman, David B. Lindell, Gordon Wetzstein
NeurIPS2020
sin関数を活性化関数として使う。音声とか画像でもよいパフォーマンス。
NA
[293] The Autoencoding Variational Autoencoder
NeurIPS2020
NA
[294] How does This Interaction Affect Me? Interpretable Attribution for Feature Interactions
NeurIPS2020
NA
[295] Benchmarking Deep Learning Interpretability in Time Series Predictions
NeurIPS2020
NA
[296] On the Theory of Transfer Learning: The Importance of Task Diversity
NeurIPS2020
NA
[297] Towards Learning Convolutions from Scratch
NeurIPS2020
NA
[298] Cycle-Contrast for Self-Supervised Video Representation Learning
NeurIPS2020
NA
[299] Introducing Routing Uncertainty in Capsule Networks
NeurIPS2020
NA
[300] Exemplar VAE: Linking Generative Models, Nearest Neighbor Retrieval, and Data Augmentation
NeurIPS2020
NA
[301] Residual Distillation: Towards Portable Deep Neural Networks without Shortcuts
NeurIPS2020
NA
[302] Provably Efficient Neural Estimation of Structural Equation Models: An Adversarial Approach
NeurIPS2020
NA
[303] Bridging Imagination and Reality for Model-Based Deep Reinforcement Learning
NeurIPS2020

Large-Scale Adversarial Training for Vision-and-Language Representation Learning
NeurIPS2020
NA
[304] On Efficiency in Hierarchical Reinforcement Learning
NeurIPS2020
NA
[305] Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
NeurIPS2020
NA
[306] Neural Complexity Measures
NeurIPS2020
NA
[307] Winning the Lottery with Continuous Sparsification
NeurIPS2020
NA
[308] JAX MD: A Framework for Differentiable Physics
NeurIPS2020
NA
[309] Task-agnostic Exploration in Reinforcement Learning
NeurIPS2020
NA
[310] Self-supervised learning through the eyes of a child
NeurIPS2020
NA
[311] Unsupervised Learning of Lagrangian Dynamics from Images for Prediction and Control
NeurIPS2020
NA
[312] Knowledge Distillation: A Survey (2021)
Jianping Gou, Baosheng Yu, Stephen J. Maybank, Dacheng Tao
2021
U. of Sydney, Birkbeck College, U. of London
知識蒸留のサーベイ。入出力ベース、素性ベース、関係ベース。オフライン、オンライン、セルフ蒸留。敵対的蒸留、グラフベース蒸留、アテンションベース蒸留、離散化蒸留、ライフロング蒸留、NASベース蒸留など。
NA
[313] Sensorimotor representation learning for an "active self" in robots: A model survey (2021)
Phuong D.H. Nguyen, Yasmin Kim Georgie, Ezgi Kayhan, Manfred Eppe, Verena Vanessa Hafner, and Stefan Wermter
2021
U. Hamburg, Humboldt-U. ze Berlin
人間は、自分の身体を空間の中で感じたり、手足の位置を動きの中で感じたり、他の物体やエージェントがいることに気づいていたりということができる。この論文では、まず、これらのメカニズムの発達プロセスをレビューする。次に、これらのセンサ表現や自己についてのロボットのモデルについて述べる。最後に、現在のロボットのモデルに何が足りないのかを述べる。
PPS(peripersonal space、大まかには手の届く範囲)という概念が出てくる。
NA
[314] Training Vision Transformers for Image Retrieval
2021
NA
[315] Differentiable Reasoning on Large Knowledge Bases and Natural Language (2019)
Pasquale Minervini, Matko Boˇsnjak, Tim Rockt¨aschel, Sebastian Riedel, Edward Grefenstette
2019
UCL, FAIR
微分可能にした知識ベース。従来のニューラル定理証明器(NTP)を拡張して複雑で大きな問題も解けるようにする。Prologのバックチェイニングのアルゴリズムに基づいて、それを微分可能なオペレータにする。
NA
[316] Meeting of minds: the medial frontal cortex and social cognition
2006
NA
[317] Brains as Naturally Emerging Turing Machines (2015)
Juyang Weng
IJCNN 2015
Michigan State U.
Developmental Networkは、有限オートマトンを学習することができる。チューリングマシンのコントローラは、有限オートマトンと等価であることを示す。創発的チューリングマシンという概念を議論している。
NA
[318] Sequential Neural Networks as Automata
William Merrill
ACL workshop 2019 on Deep Learning and Formal Languages: Building Bridges
Yale U.
オートマトンに関連付けて、ニューラルネットワークができる計算を説明する。LSTM, CNNなど。LSTMは、カウンターマシン(計算マシン)のように機能し、CNNをサブ正規の階層と関連づけた。(やろうとしていることはいいのだが、ちょっと中途半端な感じ。)
NA
[319] Knowledge Distillation: A Survey
2021
NA
[320] Learning to Decompose and Disentangle Representations for Video Prediction (2018)
Jun-Ting Hsieh, Bingbin Liu, De-An Huang, Li Fei-Fei, Juan Carlos Niebles
2018
Stanford U.
動画に対しての、DDPAE(分解ディスエンタングルされた予測オートエンコーダ)を提案。入力を要素に分解してそれぞれが予測し、足し合わせる。
NA
[321] Emergence of Invariance and Disentanglement in Deep Representations (2017)
Alessandro Achille, Stefano Soatto
2017
UCLA
DNNの不変量は、学習された表現の情報の最小化と同じであり、ノイズを混ぜることは不変な表現を学習することへのバイアスとなる。クロスエントロピーの損失を分解して、過学習する項があることを示す。この項を2つの方法で制約することで、正則化する方法を提案する。
1つは、カルバックライブラー項でPAC-ベイスのみかたに関連する。もうひとつは、重みを学習されたモデルの複雑さと見る方法で、新しい情報ボトルネックとなる。過学習と未学習の相転移的な現象も定量的に評価できる。
Min. 表現がタスクに対して持つクロスエントロピー(完全に予測すれば0)+表現がデータに対してもつ相互情報量+変異間の相関(disentanglement)
NA
[322] Structured Disentangled Representations (2018)
Babak Esmaeili, Hao Wu, Sarthak Jain, Alican Bozkurt, N. Siddharth, Brooks Paige, Dana H. Brooks, Jennifer Dy, Jan-Willem van de Meent
2018
Northwestern U.
多くの表現学習の手法は、単純な対角のガウシアンのプライアを用い、結果として変化の離散的ファクターを十分にディスエンタングルできない。ここでは、2レベルの階層的なモデルを提案する。
それとともに、ELBOの式を分解し、従来手法を統一的に整理している。
NA
[323] Towards a definition of disentangled representations (2018)
Irina Higgins, David Amos, David Pfau, Sebastien Racaniere, Loic Matthey, Danilo Rezende, Alexander Lerchner
2018
DeepMind
ディスエンタングルされた表現は、世界の変形的な性質に注目して得られることを述べる。あるベクトル表現が、ディスエンタングルされた表現であるとは、いくつかの独立な部分空間に分解し、それぞれの部分空間が他の空間のアクションから影響を受けない。
最初の「ディスエンタングルされた表現の定義」を提案する。
NA
[324] Image transformer
ICML 2018
NA
[325] Vision-Language Navigation With Self-Supervised Auxiliary Reasoning Task (2020)
Fengda Zhu, Yi Zhu, Xiaojun Chang, Xiaodan Liang
CVPR 2020
Monash U., U. of Chinese Academy of Sciences, Sun Yat-sen U., Dark Matter Ai Inc.
ビジョン言語ナビゲーションの鍵は、視覚的なシーンと自然言語の両方を系列的に予測することである。従来の手法は、ビジョンと言語の特徴をクロスモーダルにグラウンドするアプローチをとっていた。しかし、環境に含まれる豊富な意味的情報を無視してきた(例えば、暗黙的なナビゲーショングラフとかサブ軌跡の意味論とか)。この論文では、副次推論ナビゲーション(Auxiliary Reasoning Navigation, AuxRN)を提案し、4つの自己教師ありの補助推論タスクを用いるフレームワークを提案する。この4つの問題とは、以前のアクションを説明する、ナビゲーションの進行を推定する、次の方向を予測する、軌跡の首尾一貫性を評価する、である。Room-to-Room (R2R)データセット。
言語タスクとして参考になる。
NA
[326] Efficient simulation of finite automata by neural nets
1991
NA
[327] Look before you leap: Bridging model-free and model-based reinforcement learning for planned-ahead vision-and-language navigation
2018
NA
[328] Scene graph generation with external knowledge and image reconstruction
2019
NA
[329] Self-monitoring navigation agent via auxiliary progress estimation
2019
NA
[330] Analogues of mental simulation and imagination in deep learning (2019)
Jessica B Hamrick
2019
DeepMind
メンタルシミュレーションと想像について。メンタルシミュレーションは、物理的推論、空間的推論、モータコントロール、記憶、シーン再生、言語、反実推論などに関わっている。これを強化学習の用語で説明している。プライアに制約された、潜在的な状態遷移モデル、あるいはデータに制約された潜在的な状態遷移モデルである、ということ。これを使ってバックグラウンドのプランニングと、決定時のプランニングができる。強化学習の手法を位置づけている。
NA
[331] Action and Perception as Divergence Minimization (2020)
Danijar Hafner, Pedro A. Ortega, Jimmy Ba, Thomas Parr, Karl Friston, Nicolas Heess
2020
Google Brain, DeepMind, U. Toronto, UCL
アクションと知覚が同じKL最小化の問題になる。知覚は、入力に基づいて表現の信念に影響を与える。アクションは、表現に基づいて入力に影響を与える。この視点から、変分推論、償却推論、将来の入力、制御、最大エントロピーRL、エンパワメント(将来の入力と将来のアクションの相互情報量を最大化する。環境に影響を与えることを促進する)、スキル発見(入力とスキルの相互情報量を最大化する)、情報ゲインなどの概念を統一的に説明している。重要。
NA
[332] Stabilizing Transformers for Reinforcement Learning
2019
NA
[333] The Deep Learning Revolution and Its Implications for Computer Architecture and Chip Design (2019)
Jeff Dean
2019
AutoMLの構想など。
NA
[334] Disentanglement in conceptual space during sensorimotor interaction (2019)
Junpei Zhong, Tetsuya Ogata, Angelo Cangelosi, Chenguang Yang
Cognitive Computation and Systems 2019
AIST, Waseda, U. Manchester, U. West of England
VAEとPredNetを組み合わせたモデル。VAEを拡張した、変分アクションフィードバック拡張PredNet(VAFA-PredNet)というもの。色とかサイズとかがdisentangleできる。
NA
[335] Neuroscience of Imagination and Implications for Human Evolution (2019)
Andrey Vyshedskiy
2019
Boston U.
睡眠時の夢は創造的な像を作る。人は、前頭前野合成(PFS)によって、意識的・意図的に心的なイメージを想像することができる。この両者は異なるもので、PFSはLPFS(外側前頭前野)に大きく依存していて、そこに損傷があるとPFSの能力を失うが、夢については変わらない。
NA
[336] Sharpness-Aware Minimization for Efficiently Improving Generalization
2020
NA
[337] Scaling Laws for Autoregressive Generative Modeling (2020)
Tom Henighan, Jared Kaplan, Mor Katz, Mark Chen, Christopher Hesse, Jacob Jackson, Heewoo Jun, Tom B. Brown, Prafulla Dhariwal, Scott Gray, Chris Hallacy, Benjamin Mann, Alec Radford, Aditya Ramesh, Nick Ryder, Daniel M. Ziegler, John Schulman, Dario Amodei, Sam McCandlish
2020
OpenAI
画像生成のモデル、動画のモデル、マルチモーダルな画像とテキストの変換のモデル、数学的問題解決の4つのドメインに対して、トランスフォーマの性能が、モデルサイズと計算機の予算とともにべき乗則で増える。(データセットは下がるが、べき乗則のようには見えない。)
NA
[338] Scaling Laws for Neural Language Models (2020)
Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei
2020
OpenAI
言語モデルにおけるトランスフォーマを使った場合のクロスエントロピー損失が、モデルサイズ、データセットのサイズ、計算量に応じてべき乗則でスケールすることを示す。逆に、ネットワークのアーキテクチャやハイパーパラメータはほとんど効かない。
NA
[339] Theoretical Analysis of Self-Training with Deep Networks on Unlabeled Data (2021)
Clin Wei, Kendrick Shen, Yining Chen, Tengyu Ma
2020, ICLR 2021
Stanford U.
従来は線形なモデルにのみ示されていた自己教師の理論的な理解を、広げる。
データの低確率の部分集合は、より高い確率を持つその近傍に拡張しなければならない、という仮説が分析の中心である。
NA
[340] Transformer Feed-Forward Layers Are Key-Value Memories (2020)
Mor Geva, Roei Schuster, Jonathan Berant, Omer Levy
2020
コーネル大
フィードフォワード層は、トランスフォーマのモデルの2/3を構成するが、その役割がよく知られていない。ここでは、キー-バリュー記憶として働くことを示す。キーがテキストのパターンでバリューが出力の語彙の分布である。
NA
[341] Taming Transformers for High-Resolution Image Synthesis (2020)
Patrick Esser, Robin Rombach, Bjorn Ommer
2020
Heidelberg U., ドイツ
畳み込みVQGANを作って、コードブックを作る。この構成はそれに続く自己回帰のトランスフォーマで行われる。
NA
[342] Computation-Efficient Knowledge Distillation via Uncertainty-Aware Mixup (2020)
Guodong Xu, Ziwei Liu, Chen Change Loy
2020
The Chinese U. of Hong Kong, Nanyang Tech U.
知識蒸留の効率について。訓練時のコストを減らす。あまり注目されてなかった。UNIXという方法を提案。2つの要素からなる。不確実性サンプル戦略は、訓練データの情報の多さを使って戦略を評価する。適応的なミックスアップは、不確実なサンプルに適用されて、それが訓練データに使われる。
NA
[343] TransTrack: Multiple-Object Tracking with Transformer (2020)
Peize Sun, Yi Jiang, Rufeng Zhang, Enze Xie, Jinkun Cao, Xinting Hu, Tao Kong, Zehuan Yuan, Changhu Wang, Ping Luo
2020
U. Hong Kong, ByteDnace AI Lab, Tongji U., Carnegie Mellon U., Nanyang Tech. U.
オブジェクトトラッキングをトランスフォーマを使って行う。前後のフレームを入れて、IoUマッチングをする。
NA
[344] Learning Incompressible Fluid Dynamics from Scratch - Towards Fast, Differentiable Fluid Models that Generalize (2020)
Nils Wandel, Michael Weinmann, Reinhard Klein
2020
U. Bonn
従来の流体へのDLの利用はシミュレーションを使うなどしていた。この研究では、シミュレーションがいらず、CNNによって流体の時間tにおける状態を時間t+dtにマッピングする。U-netも使う。
NA
[345] Is Attention Better Than Matrix Decomposition? (2020)
Zhengyang Geng, Meng-Hao Guo, Hongxu Chen, Xia Li, Ke Wei, Zhouchen Lin
2020
自己注意は、行列分解よりも性能や計算コストの点で優っていない。大域的な文脈を、低ランクの補完の問題と捉え、その最適化のアルゴリズムが大域的な情報ブロックの設計に資することを示す。ハンバーガーというモデルを提案し、行列分解の最適化手法を用い、入力の表現をサブの行列に分解し、低ランクの埋め込みを再現する。
NA
[346] A Survey on Visual Transformer (2021)
Kai Han et al.
2021
Huawei Tech., Peking U., U. Sydney
iGPT、ViT、Dekt-B、DETR(物体検知)、Max-DeepLab(セグメンテーション)など。
NA
[347] Efficient Attention: Attention with Linear Complexities (2020)
Shen Zhuoran, Zhang Mingyuan, Zhao Haiyu, Yi Shuai, Li Hongsheng
2020
SenseTime, the Chinese U. of Hong Kong
アテンションのKVQの掛け算の順序を変えて、パラメータを減らす。
NA
[348] ArtEmis: Affective Language for Visual Art (2020)
Panos Achilioptas, Maks Ovsjanikov, Kilichbek Haydarov, Mohamed Elhoseiny, Leonidas Guibas
2020
Stanford U., Ecole Polytechnique, King Abdullar U. of Science and Technology
8万1000枚のアートの作品に対しての、43万9000の感情的な属性・説明のデータセット。
NA
[349] Dataset Condensation with Gradient Matching (2020)
Bo Zhao, Konda Reddy Mopuri, Hakan Bilen
2020
U. Edinburgh
少ないデータセットで同じ学習精度が出るように、データセットのほうを合成する。もとのデータセットと同じ学習ができるように、分類精度のロスや各層での学習結果の差に対してロスを定義、伝搬させる。0.2%のデータ量で9割程度のパフォーマンス。
NA
[350] Infinite Nature: Perpetual View Generation of Natural Scenes from a Single Image
2020
Andrew Liu, Richard Tucker, Varun Jampani, Ameesh Makadia, Noah Snavely, Angjoo Kanazawa
Google Research
自然の風景の画像を1枚入れると、動画(フレーム)を延々と出力しつづける。
風景の幾何と、画像の描画をハイブリッドにし、描画、修正、繰り返す、と行う。カメラの位置を空間上で計算しつつ、隠れた部分について描画するようだ。SPADEという描画手法をベース。resnetとアップサンプリングで、徐々に拡大していくようなネットワーク(pix2pixのような感じ)。
NA
[351] Learning Transferable Visual Models From Natural Language Supervision (2020)
Alec Radford, JongWook Kim, Chris Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark, Gretchen Krueger, Ilya Sutskever
2020
OpenAI
テキストと画像のゼロショット学習。コントラスティブ事前学習で、ペアリングを学習する。visionトランスフォーマ、テキストトランスフォーマ。画像、テキストの4億ペアで学習。
NA
[352] Generative Language Modeling for Automated Theorem Proving (2020)
Stanislas Polu and Ilya Sutskever
2020
OpenAI
GPT-f。GPT-2やGPT-3を使って、数学の定理証明を行う。Metamathライブラリーというのがあって、約3万8000個の証明が入っている。36層、7億7400万パラメータのモデル。新しい短い証明を見つけて、Metamathライブラリーに登録されたことは初。
NA
[353] Making sense of sensory input (2020)
Richard Evansa, Jose Hernandez-Orallo, JohannesWelbl, Pushmeet Kohli, Marek Sergot
2020
DeepMind, Imperial College, U. Politecnica de Valencia
センサ入力の「意味が分かる」ために、記号的に説明する。
NA
[354] Unsupervised Learning of Visual Features by Contrasting Cluster Assignments
2020
NA
[355] DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter (2020)
Victor SANH, Lysandre DEBUT, Julien CHAUMOND, Thomas WOLF
2020
Hugging Face
DistilBERTとよぶより小さな汎用言語表現モデルを提案する。これまでの蒸留はタスク依存だったが、事前学習を知識蒸留し、40%サイズを減らし、97%の能力、60%の高速化を達成した。損失関数は工夫があるが、基本はただの蒸留。
NA
[356] MobileBERT: a Compact Task-Agnostic BERT for Resource-Limited Devices
2020
NA
[357] Rethinking Attention with Performers (2021)
Krzysztof Choromanski, Valerii Likhosherstov, David Dohan, Xingyou Song, Andreea Gane, Tamas Sarlos, Peter Hawkins, Jared Davis, Afroz Mohiuddin, Lukasz Kaiser, David Belanger, Lucy Colwell1, Adrian Weller
2020, ICLR 2021
Google, U. Cambridge, DeepMind, Alan Turing Instiutte
パフォーマを提案する。通常のフルランクアテンションのトランスフォーマを証明可能な精度で推定することができ、線形な空間と時間の複雑性しかもたない、トランスフォーマのアーキテクチャである。正の直交するランダム素性による高速テンションアプローチ(FAVOR+)という方法を使う。
行列をさらに分解して細かくするようなもの。
NA
[358] Big Bird: Transformers for Longer Sequences (2020)
Manzil Zaheer, Guru Guruganesh, Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, Amr Ahmed
NeurIPS 2020
Google Research
トランスフォーマは系列の長さnに対してO(n^2)のメモリ・計算量がかかるが、大域的アテンション、ウィンドウアテンション、ランダムアテンションを組み合わせて、O(n)にする。8倍の長さの系列まで扱えるようになる。
NA
[359] What Makes Instance Discrimination Good for Transfer Learning?
2020
NA
[360] End-to-End Object Detection with Transformers (2020)
Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, Sergey Zagoruyko
2020
FAIR
CNNに入れて、画像特徴にしたあと、トランスフォーマで、物体検知を「集合予測」の問題として考える。DEtection TRansformer (DETR)とよぶ手法。
NA
[361] Generative Pretraining from Pixels (2020)
Mark Chen, Alec Radford, Rewon Child, Jeff Wu, Heewoo Jun, Prafulla Dhariwal, David Luan, Ilya Sutskever
2020
OpenAI
GPT-2スケールのモデルを自然言語ではなく画像に。系列のトランスフォーマで、自己回帰的にピクセルを予測する。CIFAR-10で、線形なもので96.3%の精度で、教師ありのWideResNetを上回り、フルチューニングすれば99.0%で最高精度の教師ありと匹敵する。
NA
[362] Training data-efficient image transformers & distillation through attention (2020)
Hugo Touvron, Matthieu Cord, Matthijs Douze, Francisco Massa, Alexandre Sablayrolles, Hervé Jégou
2020
FAIR, Sorbonne U.
ViTなどは、多くの画像で事前学習される。ここではイメージネットだけを用いて、コンボリューションのないトランスフォーマを8GPUで3日間で訓練する。この86Mパラメータのトランスフォーマは、top-1 accuracyで83.1%をイメージネットで出すことができる。提案するのは、Data-efficieint image Transformers; DeiT。モデルは、ViT-Bと同じ。(少しだけ異なる。)
さらにトークンベースの戦略を用いた蒸留を行うことで、高速に精度を上げる。
NA
[363] How Much Knowledge Can You Pack Into the Parameters of a Language Model? (2020)
Adam Roberts, Colin Raffel, Noam Shazeer
2020
Google
外部知識にアクセスを許さないで、言語モデル(T5)だけから(本を閉じた状態で)質問に答える手法の定量的な実験を行っている。最も巨大なモデル(XXL)で事前学習の目的としてsalient span masking(SSM)を使った場合に、知識を使う(本を開けた)最新のアプローチと同程度。
NA
[364] REALM: Retrieval-Augmented Language Model Pre-Training (2020)
Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, Ming-Wei Chang
2020
Google Research
検索拡張言語モデル(REALM)の提案。内積の最大化の検索によって文書を検索し、エンドトゥエンドで学習する。
NA
[365] Making Pre-trained Language Models Better Few-shot Learners
2020
NA
[366] Self-Supervised Meta-Learning for Few-Shot Natural Language Classification Tasks
2020
NA
[367] Learning The Difference That Makes A Difference With Counterfactually-Augmented Data
2019
NA
[368] Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity
NA
[369] Taming Transformers for High-Resolution Image Synthesis
2020
NA
[370] Your GAN is Secretly an Energy-based Model and You Should Use Discriminator Driven Latent Sampling
NeurIPS 2020
NA
[371] Untangling tradeoffs between recurrence and self-attention in artificial neural networks
NeurIPS 2020
NA
[372] Can the Brain Do Backpropagation? --- Exact Implementation of Backpropagation in Predictive Coding Networks
NeurIPS 2020
NA
[373] Big Self-Supervised Models are Strong Semi-Supervised Learners (2020)
Ting Chen, Simon Kornblith, Kevin Swersky, Mohammad Norouzi, Geoffrey Hinton
NeurIPS 2020
Google Research, Brain Team
教師なしで学習し、教師あり(ファインチューニング)で学習する。ラベルが少ないほど、教師なしのほうはうまくいく。ファインチューニング後は、蒸留をすることでタスクに依存した特徴だけになり軽くなる。ImageNetを使って、教師あり、教師なし、蒸留の関係を上手に解説している。
NA
[374] Latent World Models For Intrinsically Motivated Exploration (2020)
Aleksandr Ermolov, Nicu Sebe
NeurIPS 2020
U. Trento
部分観測可能で疎な報酬の環境を考える。画像ベースの観測のための自己教師ありの表現学習の手法を提案する。
2つの近接した時間フレームでの表現の差が小さくなるように表現を学習する。(と、時間的に不変なものに近くなる。)RNNで世界モデルを構築し、環境のダイナミクスをモデル化する。
NA
[375] A Survey on Contrastive Self-supervised Learning
2020
NA
[376] Soft-IntroVAE: Analyzing and Improving the Introspective Variational Autoencoder (2020)
Tal Daniel, Aviv Tamar
2020
Technion, Haifa, Israel
VAEに識別器を導入したIntroVAEのヒンジ損失をスムーズな指数ロスに置き換える。非常にきれいな画像生成ができる。
NA
[377] IntroVAE: Introspective Variational Autoencoders for Photographic Image Synthesis
2018
NA
[378] Pushing the Limits of Semi-Supervised Learning for Automatic Speech Recognition
2020
NA
[379] OPAL: Offline Primitive Discovery for Accelerating Offline Reinforcement Learning (2020)
Anurag Ajay, Aviral Kumar, Pulkit Agrawal, Sergey Levine, Ofir Nachum
2020
MIT, Google Brain, UCB
教師なしでのポリシーをオートエンコーダでエンコーディングして、それをプリミティブとして使ってタスクポリシーを求める。全体の構成としてはとても良いと思う。D4RLで、いくつかのタスクですごくスコアがあがっている。どんなプリミティブが得られているのかとか、教師なしの行動でどういうpriorなのかとか不明。
NA
[380] Differentiable Vector Graphics Rasterization for Editing and Learning (2020)
Tzu-Mao Li, Michal Lukáč, Michaël Gharbi, Jonathan Ragan-Kelley
SIGGRAPH Asia 2020
MIT, Adobe
ベクターグラフィックをラスタライズすると、元に戻せない。(CNN等はラスタライズしないと動かない一方で、フォントとか多くのものはコンパクトなベクターで表現されている。)これを微分可能にして戻せるようにする。
NA
[381] Neural Networks Fail to Learn Periodic Functions and How to Fix It (2020)
Liu Ziyin, Tilman Hartwig, Masahito Ueda
2020
U. Tokyo
x+sin(x)^2という関数(へび関数)を活性化関数として用いることで周期をうまく捉えられ、かつ局所解に陥りづらい。外挿の能力が重要。
NA
[382] 6-DOF GraspNet: Variational Grasp Generation for Object Manipulation (2020)
Arsalan Mousavian, Clemens Eppner, Dieter Fox
2020
NVIDIA
VAEで、ポイントクラウドから把持姿勢へとマッピングする。シミュレーション上だけで訓練し、88%の成功。
NA
[383] Learning Real-World Robot Policies by Dreaming (2019)
AJ Piergiovanni, Alan Wu, Michael S. Ryoo
2019
Indiana University Bllomington
VAEで状態表現と状態遷移のモデルを作る。この世界モデル上で強化学習。TurtleBotを動かす。移動タスク。方向はとてもいいと思う。
NA
[384] SoftGym: Benchmark for Soft Object Manipulation of Deep RL algoritms (2020)
Xingyu Lin, Yufei Wang, Jake Olkin, David Held
2020
CMU
変形するオブジェクトのOpenAI Gym互換。SoftGym-Medium(水を注ぐ、ロープを伸ばす、布をたたむなど), SoftGym-Hard(水を一定量注ぐ、ロープを整形する、ぐちゃぐちゃになった布をたたむ)、SoftGym-Robot(これをSawyerやFranka相当のロボットでやる)。
NA
[385] Learning Predictive Representations for Deformable Objects Using Contrastive Estimation
2020
NA
[386] Graph-based Hierarchical Knowledge Representation for Robot Task Transfer from Virtual to Physical World (2020)
Zhenliang Zhang, Yixin Zhu, Song-Chun Zhu
2020
Tencent, UCLA
洗濯物をたたむのをVRで例示して、たたみ方をAnd-Or-Graph(AOGグラフ)として学習。(構造は決まっていて重みだけ求めているのかも。)それを使ってロボットが学習する。
NA
[387] Implicit Under-Parameterization Inhibits Data-Efficient Deep Reinforcement Learning
2020
Aviral Kumar, Rishabh Agarwal, Dibya Ghosh, Sergey Levine
UCB, Google Research, MILA
なぜ深層RLが難しいか。価値ネットワークの更新を、TD最小化のようなブートストラップ的な勾配降下で行うと、ランクが落ちてアンダーパラメタライゼーションになり、パフォーマンスが落ちる。
NA
[388] MELD: Meta-Reinforcement Learning from Images via Latent State Models (2020)
Tony Z. Zhao, Anusha Nagabandi, Kate Rakelly, Chelsea Finn, Sergey Levine
2020
UCB, Stanford
潜在ダイナミクスによるメタRL。VAE+時系列の一貫性で潜在変数を出している。(アトラクタ的な話はない。)イーサネットのケーブルを差し込むタスクで実験。
NA
[389] Decoupling Representation Learning from Reinforcement Learning
Adam Stooke, Kimin Lee, Pieter Abbeel, & Michael Laskin
UCB
2020
教師なしによる表現学習と、方策の学習を分ける。ATG(Augmented Temporal Contrast)とよばれるCNNを使った教師なし学習で、kステップ先の入力を当てるというタスクを解かせて、エンコーダをRLで使う。(アプローチとしては正しい。)
NA
[390] Predictive Coding Approximates Backprop along Arbitrary Computation Graphs (2020)
Beren Millidge, Alexander Tschantz, and Christopher L Buckley
2020
U. Edinburgh, U. Sussex
予測符号化が、多層のパーセプトロンだけでなく、計算グラフ上の自動微分全般を生物学的に可能な方法で実装できることを示す。
NA
[391] Very Deep VAEs Generalize Autoregressive Models and Can Outperform Them on Images (2021)
Rewon Child
2020, ICLR2021
48層とか72層とかあるVAE。PixelCNNより高い尤度、少ないパラメータ。残余ブロックを使って、階層的(ラダーネットワークのように)にエンコーダ、デコーダを構成する。
NA
[392] Learning quadrupedal locomotion over challenging terrain
2020
NA
[393] Mastering Atari with Discrete World Models (2020)
Danijar Hafner, Google Brain, Timothy Lillicrap, Mohammad Norouzi, Jimmy Ba
2020
Google Brain, DeepMind, U. Toronto
DreemerV2。潜在空間の遷移のモデル(CNN+GRU)と、強化学習。ガウシアンの潜在変数ではなくて、カテゴリ変数を用いている。
NA
[394] Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model (2019)
Julian Schrittwieser, Ioannis Antonoglou, Thomas Hubert, Karen Simonyan, Laurent Sifre, Simon Schmitt, Arthur Guez, Edward Lockhart, Demis Hassabis, Thore Graepel, Timothy Lillicrap, David Silver
2019
DeepMind, UCL
AlphaZeroからMuZero。モデルをもってなくても学習する。ATARIに加えて、囲碁や将棋もルールを与えない。過去の観測と(数ステップの)将来のアクションから、(数ステップ以降の)ポリシー、価値関数、直近のリワードを学習するようなモデルを学習。モンテカルロツリー探索で行動をも見つけるのはAlphaZeroと同じ。
NA
[395] Image GANs meet Differentiable Rendering for Inverse Graphics and Interpretable 3D Neural Rendering (2020)
Yuxuan Zhang, Wenzheng Chen, Huan Ling, Jun Gao, Yinan Zhang, Antonio Torralba, Sanja Fidler
2020
NVIDIA, U. Toronto, Vector Institute, U. Waterloo, Stanford, MIT
スタイルGANで、異なるビューをスタイルとして3Dの生成をする。微分可能なレンダラにテキスチャとか入れて、生成する。
NA
[396] Generative Modeling by Estimating Gradients of the Data Distribution
2020
NA
[397] It's Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners
2020
NA
[398] Understanding Self-supervised Learning with Dual Deep Networks
2020
NA
[399] DreamCoder: Growing generalizable, interpretable knowledge with wake-sleep Bayesian program learning (2020)
Kevin Ellis, Catherine Wong, Maxwell Nye, Mathias Sabl´e-Meyer, Luc Cary, Lucas Morales, Luke Hewitt, Armando Solar-Lezama, Joshua B. Tenenbaum
2020
MIT
タスクを解くようなプログラムを学習する。Wakeフェーズでは、さまざまなタスクのデータを提示され、構成的に解くことを試みる。(ニューラルにガイドされた探索。)Sleepフェーズでは、抽象化とドリーミングを行う。抽象化はライブラリのリファクタリング、ドリーミングはサンプリングしながらタスクからプログラムを出せるように学習する。
NA
[400] Efficient inverse graphics in biological face processing (2020)
Ilker Yildirim, Mario Belledonne, Winrich Freiwald, Josh Tenenbaum
2020
MIT, Yale
視覚は、認識や検知をするだけでなく、背後にあるシーンの構造を推論する。逆生成モデル、または「合成による分析」は、可能な解を提示するが、その実装は通常はとてもおそく、神経回路とのマッピングは不明だった。ここでは、神経学的に可能で、効率的な逆グラフィックモデルを提案する。
(生成モデルとあわせたアルゴリズム蒸留の考え方に近い。)
NA
[401] Generating high fidelity images with subscale pixel networks and multidimensional upscaling
ICLR 2019
SPN(Subscale Pixel Network)の提案。
NA
[402] Scaling autoregressive video models (2020)
Dirk Weissenborn, Oscar T¨ackstr¨om, Jakob Uszkoreit
ICLR 2020
Google Research
動画のトランスフォーマ。3次元、ブロック局所的なセルフアテンションを使う。TPUで実装。時間・空間の区別をしていない。サブスケールした画像スライスを使う(SPNと同じ)。大きいモデルだと128TPUを使っている。
NA
[403] VideoGen: Genetive Modeling of Videos using VQ-VAE and Transformers
2021
量子化VAE(VQ-VAE)とGPTを使って動画の生成モデルを学習。VQ-VAEの潜在変数を使って、自己回帰の自己相関をiGPTを使って学習する。SOTAではないが、VQ-VAEの再構成の質にバウンドされているのが原因と分析。
NA
[404] Language as a Cognitive Tool to Imagine Goals in Curiosity-Driven Exploration (2020)
Cédric Colas, Tristan Karch, Nicolas Lair, Jean-Michel Dussoux, Clément Moulin-Frier, Peter Ford Dominey, Pierre-Yves Oudeyer
2020
Inria, FR
分布外のゴールを想像する力が重要。言語によって、「赤い猫をつかめ」などを生成し、それをもとにRLエージェントが動く。いったん画像を生成するわけではない。
NA
[405] Generative Language Modeling for Automated Theorem Proving (2020)
Chulhee Yun, Srinadh Bhojanapalli, Ankit Singh Rawat, Sashank J. Reddi, Sanjiv Kumar
ICML 2020
MIT, Google Research NY
トランスフォーマが、系列マッピングの万能近似器であることを示す。パーミュテーション等価であるが、これが位置エンコーディングによってこの制約を外すことができる。自己アテンション層で文脈マッピングというのを実現し、フィードフォワード層で量子化をしている。
NA
[406] Generative Pretraining from Pixels (2020)
Mark Chen, Alec Radford, Rewon Child, Jeff Wu, Heewoo Jun, Prafulla Dhariwal, David Luan, Ilya Sutskever
2020
OpenAI
GPT-2を画像に適用。解像度を荒くして1次元化し、マスクしたピクセルの予測、あるいは、自己相関的に次のピクセルを予測というタスクで事前学習。その後にファインチューニング。iGPTと呼ぶ。CIFAR10では、線形なモデルでも教師ありのWide ResNetの精度を超え、フルファインチューニングではトップレベルの教師ありに並ぶ。より大きなモデルでImageNetとwebで事前学習させると、ImageNetのtop-1で72.0%で、最高精度に匹敵する。
NA
[407] Brain States and Transitions: Insights from Computational Neuroscience (2020)
Morten L. Kringelbach and Gustavo Deco
Ceel Reports, 2020
U. Oxford
脳がどこでどのようにひとつの状態から別の状態に変わるのかを予測するのは難しい。どのように脳の状態を定義するか。最近では、脳の状態の定義とその遷移についていろいろと分かってきており、それをサーベイする。そして新しいフレームワークである、機能的階層組織化について述べる。
NA
[408] Brain2Word: Decoding Brain Activity for Language Generation
NA
[409] Continuous-variable quantum neural networks
2018
NA
[410] Are Transformers universal approximators of sequence-to-sequence functions? (2020)
Chulhee Yun, Srinadh Bhojanapalli, Ankit Singh Rawat, Sashank J. Reddi, Sanjiv Kumar
ICML 2020
MIT, Google Research
トランスフォーマは、コンパクトな台をもつ、連続空間の置換同値な系列から系列への関数の、万能近似器である。さらに、位置符号化を使えば、置換同値の制限も外すことができる。
マルチヘッドの自己注意層が文脈マッピングを計算し、フィードフォワード層の値マッピングと組み合わせることで、トランスフォーマの万能近似が可能になる。
NA
[411] Unsupervised feature learning via non-parametric instance discrimination
CVPR 2018
NA
[412] SaccadeNet: A Fast and Accurate Object Detector
CVPR 2020
NA
[413] Visual-textual Capsule Routing for Text-based Video Segmentation (2020)
Bruce McIntosh, Kevin Duarte, Yogesh S Rawat, Mubarak Shah
CVPR2020
U. Central Florida
動画とテキストでそれぞれカプセルを作って、アクターとアクションの局在化を行う。すべてのフレームを使った局在化が可能。
NA
[414] Object Relational Graph with Teacher-Recommended Learning for Video Captioning
CVPR2020
NA
[415] REVERIE: Remote Embodied Visual Referring Expression in Real Indoor Environments
CVPR2020
NA
[416] SQuINTing at VQA Models: Introspecting VQA Models with Sub-Questions
CVPR2020
NA
[417] Dynamic Refinement Network for Oriented and Densely Packed Object Detection – Supplementary Materials
CVPR 2020
NA
[418] End-to-End Model-Free Reinforcement Learning for Urban Driving using Implicit Affordances
CVPR2020
NA
[419] Evolving Losses for Unsupervised Video Representation Learning
CVPR 2020
NA
[420] Self-Supervised Viewpoint Learning From Image Collections
CVPR 2020
NA
[421] Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild
CVPR 2020
NA
[422] Total3DUnderstanding: Joint Layout, Object Pose and Mesh Reconstruction for Indoor Scenes from a Single Image
CVPR 2020
NA
[423] X3D: Expanding Architectures for Efficient Video Recognition
CVPR 2020
NA
[424] GraspNet-1Billion: A Large-Scale Benchmark for General Object Grasping
CVPR 2020
NA
[425] Action Genome: Actions as Composition of Spatio-temporal Scene Graphs
CVPR 2020
NA
[426] Autolabeling 3D Objects with Differentiable Rendering of SDF Shape Priors
CVPR 2020
NA
[427] Adversarial Robustness: From Self-Supervised Pre-Training to Fine-Tuning
CVPR 2020
NA
[428] How Useful is Self-Supervised Pretraining for Visual Tasks?
CVPR 2020
NA
[429] PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization
CVPR 2020
NA
[430] Reverse-engineering core common sense with the tools of probabilistic programs, game-style simulation engines, and inductive program synthesis
Joshua Tenenbaum
CVPR 2020 minds vs machines workshop
NA
[431] Generalized Earley Parser: Bridging Symbolic Grammars and Sequence Data for Future Prediction
ICML 2018
NA
[432] Model Cards for Model Reporting
2019
NA
[433] Turing Computability with Neural Nets (1991)
Hava T. Siegelmann, Eduardo D. Sontag
1991
Rutgers U.
(RNN型のニューラルネットワークにおいて)標準的な線型結合は、チューリングマシンと同様の計算能力をもつネットワークを構成するのに十分である。チューリングマシンは、無制限の数のニューロンを許せば可能になることが知られていたが、我々は、有限の数のニューロンで良いことを主張する。
NA
[434] On The Turing Completeness of Modern Neural Network Architectures (2019)
Jorge P´erez, Javier Marinkovi´c, Pablo Barcel´o
ICLR 2019
U. Chile
トランスフォーマ(位置符号化つき)とニューラルGPUがチューリング完全であることを示す。どちらも外部メモリへのアクセスを必要としないでチューリング完全である。すべてのチューリングマシンMに対して、それをシミュレートするトランスフォーマが存在することを示すことで証明する。
NA
[435] Deep Learning Needs a Prefrontal Cortex
Jacob Russin, Randall C. O'Reilly, Yoshua Bengio
ICLR 2020 workshop on "Bridging AI and Cognitive Science"
UC Davis, MILA
深層学習で残っている課題と、脳の前頭葉でやっていることが近いという話。サーベイがとても丁寧で、深層学習の課題、そして、前頭葉の機能をたくさんの引用をしながら説明し、その対応関係や解決策を提示している。
NA
[436] Decentralized Reinforcement Learning: Global Decision-Making via Local Economic Transactions
2020
NA
[437] Shaping Belief States with Generative Environment Models for RL
2019
NA
[438] Meta-Learning Symmetries by Reparameterization (2020)
Allan Zhou, Tom Knowles, Chelsea Finn
2020
Stanford
コンボリューション層は、入力のシフトに対して等価であるが、これは実践家が事前知識のタスクの対称性を入れたからである。データから透過性を学習する、一般的なアプローチを提案する。
内部ループと外部ループを作って(メタ学習として)、外部ループで対称性の行列U(重みの共有を表現している)の勾配を取り、修正していく。
コンボリューションと同じようなものも学習できることを検証。
NA
[439] See, Hear, Explore: Curiosity via Audio-Visual Association (2020)
Victoria Dean, Shubham Tulsiani, Abhinav Gupta
2020
CMU, FAIR
ATARI等で、複数のモダリティに関しての新しい相関に対しての好奇心の報酬を与えるとパフォーマンスが良くなることを示す。
NA
[440] NVAE: A Deep Hierarchical Variational Autoencoder (2020)
Arash Vahdat, Jan Kautz
2020
NVIDIA
VAEを階層的にしてきれいな絵を描く。Nouveau VAE(ヌーボーVAE)。Residualセルを使うところが以前の階層的なVAEとの違い。
NA
[441] Reinforcement Learning via Fenchel-Rockafellar Duality
2020
NA
[442] SurVAE Flows: Surjections to Bridge the Gap between VAEs and Flows
2020
NA
[443] Wave Function Collapse in Bad North
NA
[444] FFJORD: Free-form Continuous Dynamics for Scalable Reversible Generative Models
2018
NA
[445] Symmetry-Based Disentangled Representation Learning requires Interaction with Environments (2019)
Hugo Caselles-Dupré, Michael Garcia-Ortiz, David Filliat
2019
ENSTA Paris, INRIA, Softbank Robotics Europe
Higgins 2018のSymmetry-Based Disentangled Representation Learningをベースとして、観測だけでなく、エージェントが環境とインタラクトし対称性を見つけるということを述べる。
NA
[446] Model-based actor-critic: GAN + DRL (actor-critic) => AGI (2020)
Aras Dargazany
2020
U. Rhode Island, USA
生成モデルと強化学習を合わせるということ。重要ではあるが自明。
NA
[447] Understanding Knowledge Distillation in Non-autoregressive Machine Translation (2020)
Chunting Zhou, Jiatao Gu Graham Neubig
2019, ICLR 2020
CMU, FAIR
非自己相関機械翻訳(NAT)は、生成速度をあげるために重要な技術である。NATは、通常、ATモデルから蒸留で作られる。蒸留は経験的に有用であることがわかっているが、この論文では、なぜNATに蒸留が重要であるかを示す。蒸留は、データセットの複雑さを下げ、出力データの変異をモデル化することができるからである。NATモデルのパフォーマンスをあげる方法を提案する。
NA
[448] Revisit Knowledge Distillation: a Teacher-free Framework (2020)
Li Yuan, Francis E.H.Tay, Guilin Li, TaoWang, Jiashi Feng
CVPR2020
NUS, Huawei Noah's Ark Lab
知識蒸留は通常は教師ネットワークが強い場合だが、ここではいろいろな設定で試す。それによって、1) 逆の蒸留をすると、生徒が教師をあげることができる、2) うまく訓練できてない教師でも生徒を上げることができる、これらは結局、知識蒸留がラベルスムーズ化の正則化であるからであり、それを使った教師なしの知識蒸留(Tf-KD)を提案する。(ラベルスムーズ化は、2015年のInception論文で述べられているもので、ラベルを真のラベルと適当にサンプリングした(一様分布とか)ラベルとまぜてスムーズにしたもの)
NA
[449] Language Models are Few-Shot Learners
Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei
OpenAI
2020
GPT-3。GPT-2と同じモデルで、微修正をしている。(Sparse transformerのように密と疎の交互のアテンションを入れている。)
1750億のパラメータで、従来のどの研究よりも10倍も大きい。データセットはCommon Crawlデータセット(1兆語)。
メタ学習。事前学習では、さまざまなスキルやパターン認識能力を学習するが、目的となるタスクが与えられたときには、そうした能力を使ってすぐに適応する。
NA
[450] Language Models are Unsupervised Multitask Learners (2018)
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever
2018
OpenAI
GPT-2論文。データセットを増やして、それをいかにきちんと選んでいるかが書かれている。15億パラメータ。CoQAデータセットでF1スコアが55で、4つのうち3つのベースラインを訓練データなしに上回った。8つのうち7つのタスクで、ゼロショットの設定でSOTA。
NA
[451] Improving Neural Architecture Search Image Classifiers via Ensemble Learning (2019)
Vladimir Macko, CharlesWeill, Hanna Mazzawi, Javier Gonzalvo
2019
Google Research
NASでは、よいブロックは見つかるがこれを最終的なアーキテクチャに組み上げるのは人間である。通常は、これらのブロックをひとつのタワーにつみあげ、幅と高さを、パラメータ予算のなかで調整する。しかし、これらのタワーは最適なものと限らない。
この論文ではAdaNASアルゴリズムという、小さなネットワークのアンサンブルでネットワークを構成する手法を提案する。さらに、知識蒸留によって、繰り返し、前のアンサンブルを教師としながら、小さいネットワークを訓練する。CIFAR10で最高精度同様、CIFAR100で最高精度を達成した。
NA
[452] Blockwisely Supervised Neural Architecture Search with Knowledge Distillation (2019)
Changlin Li, Jiefeng Peng1, Liuchun Yuan, Guangrun Wang, Xiaodan Liang, Liang Lin, Xiaojun Chang
2019
DarkMatter AI Research, Monash U., Sun Yat-sen U.
NASは有効でないという最近の研究もある。本研究では、NASの広大な探索スペースをブロックにわけ、潜在的な候補のアーキテクチャが完全に訓練されるようにする。ブロックのおかげで、ブロック内のアーキテクチャも完全に評価することができる。ネットワークモデルの知識は、パラメータだけでなくアーキテクチャにもあるので、教師モデルから蒸留し、ブロックによるアーキテクチャの探索をガイドするために用いる。結果的に教師モデルを越え、最新のtop-1精度をImageNetのモバイル設定で出した。
NA
[453] Towards Oracle Knowledge Distillation with Neural Architecture Search (2020)
Minsoo Kang, Jonghwan Mun, Bohyung Han
AAAI 2020
Seoul National U., POSTECH (韓国)
アンサンブルの教師ネットワークから、強力で効率的な生徒モデルを学習することのできる知識蒸留のフレームワークを提案する。教師と生徒の容量のギャップ問題に対応し、このギャップを減らしながら教師モデルから得られるものを最大化する。特に、有用な構造やオペレーションを追加するNASの技術を用いる。ここでは、探索されるネットワークが、学生モデルにとって知識蒸留に適していて、ネットワークの容量を犠牲にすることがないようなものとなる。
さらに、オラクル知識蒸留損失を導入し、アンサンブルに基づく教師モデルを用いた蒸留とモデルの探索を行う。つまり、正解が分かっているわけなので、それを出すモデルだけをアンサンブルして教師として使う。LSTMコントローラーを使ってサンプリング。
NA
[454] Search to Distill: Pearls are Everywhere but not the Eyes (2020)
Yu Liu, Xuhui Jia, Mingxing Tan, Raviteja Vemulapalli, Yukun Zhu, Bradley Green, Xiaogang Wang
2020
Google AI, Google Brain
ネットワークの出力分布は、パラメータだけでなく、アーキテクチャにもよる。したがって、知識蒸留のより一般的なアプローチとして、パラメータとアーキテクチャの両方に知識を蒸留する。そのために、アーキテクチャーを意識した知識蒸留を提案する。教師モデルが与えられたときに、最適な生徒モデル(教師にとっては真珠)を見つける。特に、知識蒸留にガイドされたリワードを備えたNASを用いる。ImageNetの分類で、SOTAを達成した。
強化学習で探索空間を探している。
NA
[455] Grounding Language for Transfer in Deep Reinforcement Learning (2018)
Karthik Narasimhan, Regina Barzilay, Tommi Jaakkola
JAIR 2018
Princeton U., MIT
テキストの意味を、遷移や報酬などの環境のダイナミクスとグラウンドさせることを学習することで、自律エージェントが新しいドメインで記述を与えられると方策を有効にブートストラップさせられるようなモデルベース学習を提案する。「これは敵です」とか、「動かない壁です」とかの記述を与える。
NA
[456] High Fidelity Video Prediction with Large Stochastic Recurrent Neural Networks
2019
NA
[457] Visual Foresight: Model-Based Deep Reinforcement Learning for Vision-Based Robotic Control
2018
NA
[458] Model-Based Reinforcement Learning for Atari (2020)
Łukasz Kaiser, Mohammad Babaeizadeh, Piotr Miłos, Błazej Osinski, Roy H. Campbell, Konrad Czechowski, Dumitru Erhan, Chelsea Finn;, Piotr Kozakowski, Sergey Levine, Afroz Mohiuddin, Ryan Sepassi, George Tucker, Henryk Michalewski
ICLR 2020
Google Brain, deepsense.ai, Inst. of the Polish Academy of Science, U. Warsaw, U. Illinois Urbana-Champaign, Stanford
ストレートなすごい論文。ビデオ予測をいれたモデルベース強化学習。SimPLe(Simulated Policy Learning)。モデルフリーよりもずっと少ないインタラクションで学習できる。観測からの世界モデルの構築(自己教師あり)、世界モデルから方策をだすエージェントの訓練、方策から観測を出すエージェントの評価、がサイクルになるというスキーム図あり。
ビデオ予測のところは、4フレームからラダー的なエンコーダ・デコーダで、次のフレームと報酬を予測する。また、LSTMでダイナミクスを予測する。
NA
[459] Learning Latent Dynamics for Planning from Pixels (2019)
Danijar Hafner, Timothy Lillicrap, Ian Fischer, Ruben Villegas, David Ha, Honglak Lee, James Davidson
2019
Google Brain, U. Toronto, DeepMind
観測からのモデルベースのプラニング。PlaNetとよぶ。RNNではなく、Recurrent state-speceモデルというのを使う。確定的な隠れ層と、確率的な状態表現の両方を使ったモデル。
NA
[460] Simple Recurrent Units for Highly Parallelizable Recurrence
2017
NA
[461] Go-Explore: a New Approach for Hard-Exploration Problems
2019
NA
[462] Creating High Resolution Images with a Latent Adversarial Generator
2020
NA
[463] Vid2Curve: Simultaneous Camera Motion Estimation and Thin Structure Reconstruction from an RGB Video
2020
NA
[464] Epipolar Transformers
2020
NA
[465] PlaNet of the Bayesians: Reconsidering and Improving Deep Planning Network by Incorporating Bayesian Inference
2020
30 citation
[466] CARLA: An Open Urban Driving Simulator (2017)
Alexey Dosovitskiy, German Ros, Felipe Codevilla, Antonio Lopez and Vladlen Koltun
2017
Intel Labs, Toyota Research Institute, Computer Vision Center (Barcelona)
かなりきれいなドライビングシミュレータ。Car Learning to Actで、CARLA。
18 citation
[467] Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor (2017)
Tuomas Haarnoja, Aurick Zhou, Pieter Abbeel, Sergey Levine
ICML 2018 top30
UCB
方策オフで最大エントロピーに基づくアクタークリティックを提案。報酬を最大化しながら、同時にエントロピーを最大化する、つまり、タスクに成功しながら、できるだけランダムに振る舞う。
50 citation
[468] RL2: Fast Reinforcement Learning via Slow Reinforcement Learning (2016)
Yan Duan, John Schulman, Xi Chen, Peter L. Bartlett, Ilya Sutskever, Pieter Abbeel
2016
NA
[469] rlpyt: A Research Code Base for Deep Reinforcement Learning in PyTorch (2019)
Adam Stooke, Pieter Abbeel
2019
UCB
モデルフリーの強化学習は、Q学習、方策勾配、Q値方策勾配の3つのファミリーに分けられる。いろいろな手法があるが、コードは共通していることも多い。これら3つのファミリーの共通の、最適化されたインフラをひとつのリポジトリで提供する。複数の環境にあわせたCPU, GPUの設定とか同期・非同期による最適化などに対応。
NA
[470] Learning Dexterous In-Hand Manipulation
2018
NA
[471] Learning To Simulate (2019)
Nataniel Ruiz, Samuel Schulter, Manmohan Chandraker
ICLR2019
Boston U., NEC Laboratories America, UCSD
シミュレータでデータを作り学習し、実際のタスクで評価する。この評価によって、シミュレータのパラメータを調整するような強化学習を行う。
CARLAとかUnrealなどのシミュレータを用いて訓練データを創る。ドライビングの環境。タスクとしては車の数を数える、セマンティックセグメンテーション(合成データに対して、実データに対して)。ここでいうシミュレータのパラメータとは、交差点のタイプ、さまざまな車のモデル、道のレイアウトと横の建物など。
NA
[472] Meta-Sim: Learning to Generate Synthetic Datasets (2019)
Amlan Kar, Aayush Prakash, Ming-Yu Liu, Eric Cameracci, Justin Yuan, Matt Rusiniak, David Acuna, Antonio Torralba, Sanja Fidler
2019
NVIDIA, U. Toronto, Vector Institute, MIT
ドライビングのシミュレータで、訓練データを生成し、それによってタスクのパフォーマンスを上げる。タスクのパフォーマンスがあがるように、訓練データの生成の仕方を学習する。
確率文法という方法で、道からレーン、レーンから車のような木構造を作る。これをもとにシミュレータを動かしてデータを作る。最小化すべき損失関数は、再構成ロス(シーングラフがうまく表すように)、分布マッチング(実際のシーンと生成されたシーンでの分布が似るように)、タスクのパフォーマンス(物体検出)から成る。
NA
[473] Domain Randomization for Simulation-Based Policy Optimization with Transferability Assessment
2018
NA
[474] Habitat: A Platform for Embodied AI Research
Manolis Savva, Abhishek Kadian, Oleksandr Maksymets, Yili Zhao, Erik Wijmans, Bhavana Jain, Julian Straub, Jia Liu, Vladlen Koltun, Jitendra Malik, Devi Parikh, Dhruv Batra
ICCV 2019 best paper nomination
FAIR, Georgia Tech., Simon Fraser U., Intel Labs, UCB
室内の環境を移動して、ものを取れたりするような3Dのプラットフォーム。シミュレータとAPIで構成される。
NA
[475] Embodied Question Answering
2017
Abhishek Das, Samyak Datta, Georgia Gkioxari, Stefan Lee, Devi Parikh, Dhruv Batra
Geogia Tech., FAIR
EmbodiedQAを提案。3Dの環境(House3Dなど)を使ったデータセットも提案している。〜の色は何色ですか?Xの部屋にYはありますか?など。
NA
[476] VideoNavQA: Bridging the Gap between Visual and Embodied Question Answering
2019
Catalina Cangea, Eugene Belilovsky, Pietro Lio, Aaron Couville
U. Cambridge, MILA
House3Dの環境を使った動画と質問のペアから成るデータセット。10万ペア。8つのカテゴリ、28個のタイプの質問。〜の部屋に〜はいくつありますか?とか。
NA
[477] Interactive Gibson: A Benchmark for Interactive Navigation in Cluttered Environments (2019)
Fei Xia, William B. Shen, Chengshu Li, Priya Kasimbeg, Michael Tchapmi, Alexander Toshev, Roberto Martin-Martin, Silvio Savarese
2019
Stanford, Google
ロボット用の相互作用の3Dの写実的なシミュレーション環境。ものにぶつかるとちゃんと動く。なので、ものにぶつからないように遠回りをするなどの行動計画の実験ができる。
NA
[478] Learning to Adapt in Dynamic, Real-World Environments through Meta-Reinforcement Learning (2019)
Anusha Nagabandi, Ignasi Clavera, Simin Liu, Ronald S. Fearing, Pieter Abbeel, Sergey Levine, Chelsea Finn
ICLR2019
UCB
モデルベースのメタ強化学習。ReBAL(Recurrence-Based Adaptive Learner)とGrBAL(Gradient-Based Adaptive Learner)という手法を提案。それぞれリカレントモデル、MAMLを使う。実ロボットで芝生や道路などを歩ける。環境の変化は共通の構造を有していると仮定し、それが環境ごとのモデル(ダイナミクス)に影響を与えるという考えを用いる。
NA
[479] Learning Latent Plans from Play (2019)
Corey Lynch, Mohi Khansari, Ted Xiao, Vikash Kumar, Jonathan Tompson, Sergey Levine, Pierre Sermanet
2019
Google Brain
遊びのデータを使って自己教師あり学習を行い、タスクを行う。タスク専門に学習したよりも精度が高く、ロバストになる。潜在空間にマップし、潜在プランを作ることを行う。
NA
[480] Generalized Hindsight for Reinforcement Learning
2020
NA
[481] PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space (2017)
Charles R. Qi, Li Yi, Hao Su, Leonidas J. Guibas
2017
Stanford U.
PointNetを階層的に適用。1327引用
NA
[482] Pointnet: Deep learning on point sets for 3d classification and segmentation (2017)
Charles R. QI, Hao Su, Kaichun Mo, Leonidas J. Guibas
2017
Stanford U.
ポイントクラウドから直接深層学習を行う。パーミュテーション可能な関数として、maxがあるので、Max Poolingをすればよい。あと、回転に対応するために空間トランスフォーマを使う。これを多層にして、分類やセグメンテーションに使える大域的な特徴量が得られる。
NA
[483] ClearGrasp: 3D Shape Estimation of Transparent Objects for Manipulation
2019
NA
[484] A Separation Principle for Control in the Age of Deep Learning (2017)
Alessandro Achille, Stefano Soatto
2017
UCLA
動画のような複雑で打次元で不確実性の多いストリームに基づくコントロールシステムの、状態を定義・推論する問題を取り上げる。この表現は、コントロールのタスクを観測のプロセスから分ける。ダイナミクスがない簡単なケースでは、表現は情報ボトルネックラグランジアンを最小化することで推測される。これを動的なケースにも拡張し、表現がタスク変数の事後密度とする。
NA
[485] Self-supervised Deep Reinforcement Learning with Generalized Computation Graphs for Robot Navigation
2017
NA
[486] Composable Action-Conditioned Predictors: Flexible Off-Policy Learning for Robot Navigation (2018)
Gregory Kahn, Adam Villaflor, Pieter Abbeel, Sergey Levine
2018
UCB
オフポリシーデータから、イベントの手がかりを学習するフレームワークを提案し、異なるタスクを達成するときにこのイベントの手がかりを柔軟に組み合わせる。手がかりは、衝突、進んでいる、ドアなど。これが自己教師ありになって、予測モデルを学習する。CNN+LSTM。
100 citation
[487] Learning to Poke by Poking: Experiential Learning of Intuitive Physics
Pulkit Agrawal, Ashvin Nair, Pieter Abbeel, Jitendra Malik, Sergey Levine
UC Berkeley, University of Washington
NIPS2016
つつくことでつつき方を学習する。目的とする状態にもっていくことができる。
keyword: 強化学習
64 citation
[488] Deep visual foresight for planning robot motion (2016)
Chelsea Finn, Sergey Levine
2016
UCB, Google Brain
NA
[489] Learning Plannable Representations with Causal InfoGAN
2018
15 citation
[490] DARLA: Improving Zero-Shot Transfer in Reinforcement Learning (2017)
Irina Higgins, Arka Pal, Andrei A. Rusu, Loic Matthey, Christopher P Burgess, Alexander Pritzel, Matthew Botvinick, Charles Blundell, Alexander Lerchner
ICML2017
DeepMind
DARLA(DisentAngled Representation Learning Agent)。見ることを学習、行動を学習、転移。潜在的な表現を学習する。ゼロショット学習。DeepMind Labのデータセット等でよい結果。
NA
[491] PVEs: Position-Velocity Encoders for Unsupervised Learning of Structured State Representations
2017
202 citation
[492] Action-Conditional Video Prediction using Deep Networks in Atari Games (2015)
Junhyuk Oh*, University of Michigan; Xiaoxiao Guo, Uni; Honglak Lee, U. Michigan; Satinder Singh, University of Michigan; Richard Lewis, University of Michigan
NIPS2015
U. Michigan
ATARIのゲームでフレームを予測する。アクションを挟んだオートエンコーダ、(あるいはリカレントを含んだオートエンコーダ)で、従来よりも適切にフレームの予測ができる。小さいオブジェクトは苦手。CNNで高次の特徴にして、アクションベクトルを入れて、逆CNN(deconvolution)でデコードして、ロスを最小化する。
keyword: RL, 物理モデル
NA
[493] Dream to Control: Learning Behaviors by Latent Imagination (2020)
Danijar Hafner, Timothy Lillicrap, Jimmy Ba, Mohammad Norouzi
2020
U. Toronto, DeepMind, Google Brain
アクションと状態を予測することで、潜在空間での想像を学習し、それに基づいて行動する。報酬の予測、再構成(PlaNetと同様)などを目的関数に組み込む。DeepMindコントロールスイートで実験。
NA
[494] BADGR: An Autonomous Self-Supervised Learning-Based Navigation System (2020)
Gregory Kahn, Pieter Abbeel, Sergey Levine
2020
UCB
BADGRは、エンドトゥエンドのモバイルロボットのナビゲーションシステムで、自己教師あり学習のオフポリシーでデータを集めることで訓練される。シミュレータとか人間の介在は必要としない。
画像からコンボリューション、フルコネクト、LSTMで、Kステップ後までを予測し、それぞれから誤差を計算する。これでできるのはすごい(というか、要するにエージェント的なやり方がやはり正しそうということ)。
NA
[495] The Neuro-Symbolic Concept Learner: Interpreting Scenes, Words, and Sentences From Natural Supervision (2018)
Jiayuan Mao, Chuang Gan, Pushmeet Kohli, Joshua B. Tenenbaum, Jiajun Wu
2018
MIT, DeepMind
画像と言語を同時に学習する。画像を処理するためにマスクR-CNNで物体を認識し、その特徴を取り出す。また、概念の埋め込み(例えば球体について)をあわせて用いる。質問に対して、VQA用の言語(ドメイン特有言語)で表される原始的な操作の列を作る。これを強化学習で行う。
なんか全体として良いような悪いような。分解していくとこうしたいのは分かる。
NA
[496] Towards a Human-like Open-Domain Chatbot (2020)
Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, Quoc V. Le
2020
Google Research, Brain Team
Meenaと呼ぶ、複数ターンのオープンドメインのチャットボット。Evolvedトランスフォーマを使って、ソーシャルメディア上の会話の400億ワードのデータセットに対して、TPU-v3 Pod(2048のTPUコア)を30日間動かす。(26億パラメータをもつモデルなので、このデータに対してもオーバーフィットするくらい容量が大きい。)Sensibleness and Specificity Average(敏感性と特定性平均?)とよぶ指標を定義して、どのくらい複数回数の会話がよいかを計る。これはperplexityと強い相関があることがわかった。SSAの値で、人間(86%)に近い79%のスコアを出した。従来の手法(Clever botやMitsukuなど)は56%、Xiaoiceは31%なので大幅に高い。
2回め:Meena論文。ソーシャルメディアの会話で学習したマルチターン、オープンドメインのチャットボット。26億パラメータ。次の語のパープレキシティを最小化する。SSAというスコアで72%、人間レベルが86%なので近づいている。2048TPUコアで30日学習。進化トランスフォーマによるseq2seqモデルをメインアーキテクチャとして採用。
NA
[497] Contextual Imagined Goals for Self-Supervised Robotic Learning
2020
560 citation
[498] Using imagination to understand the neural basis of episodic memory
2007
Hassabis
NA
[499] Plan2Vec: Unsupervised Representation Learning by Latent Plans (2020)
Ge Yang, Amy Zhang, Ari S. Morcos, Joelle Pineau, Pieter Abbeel, Roberto Calandra
2020
Facebook AI Research, McGill University, UC Berkeley
観測データから、教師なしで状態間の距離を、局所的にメトリック学習をし、状態の接続関係を表すグラフを作る。グラフを使ってダイクストラ法で最短経路を求める。この最短経路の距離を出すような学習をする。埋め込みが学習できる。
プランニングを使ってベクトルになおしているのでplan2vec。
NA
[500] Kaolin: A PyTorch Library for Accelerating 3D Deep Learning Research (2019)
Krishna Murthy J., Edward Smith, Jean-Francois Lafleche, Clement Fuji Tsang, Artem Rozantsev, Wenzheng Chen, Tommy Xiang, Rev Lebaredian, and Sanja Fidler
2019
NVIDIA, Mila, U. Monreal, McGill U., Vector Institute, U. Toronto
PyTorchのライブラリで、3Dディープラーニングのためのもの。ShapeNet, PartNet, SHREC, ModelNet, ScanNet, HumangSegなどのデータセットをサポート。
同じような試みとして、GVNN, Kornia, Tensorflow Graphicsなどがあるが、特にTensorflow Graphicsとの比較では、微分可能なレンダラーが使えるところは同じであるが、扱っている表現(メッシュとかRGB-Dとか)がKaolinは網羅的である。ポリゴンのメッシュ、ポイントクラウド、voxelのグリッド、符号距離関数(SDF)、RGB-Dといろいろ扱える。
Model-zooとして、現在入っている使える手法は以下。Pixel2Mesh, GEOMetrics, AtlasNetが、ひとつの画像からメッシュの物体の復元に。NM3DR, Soft-Rasterizer, Dib-Rendererが同じタスクを2Dだけの教師で。MeshCNNはメッシュでの一般的な学習に、 PointNet, PointNet++がポイントクラウドに。3D-GAN, 3D-IWGAN, 3D-R2N2はvoxelでの学習に。Occupancy NetworkとDeepSDFは、SDFでの学習に。
データを読み込んでPointNet++の分類器を作るのに5行のコードでできる。
NA
[501] Temporal Difference Variational Auto-Encoder (2019)
Karol Gregor, George Papamakarios, Frederic Besse, Lars Buesing, Théophane Weber
2018, ICLR 2019
DeepMind
エージェントが世界に関するメンタルなシミュレーションを持っている必要がある。そのシミュレーションは、次の特徴を持つべき。(i) 世界の条件を表す抽象的な状態をもつ、(b) 世界の不確実性を表す信念を形成する、(c) 単純なステップごとのシミュレーションを超える。そこで、将来の状態についての信念を明示的にもち、1ステップごとではないロールアウトができるような、TD-VAEという生成系列モデルを提案する。
t1からt2まで数ステップとばした遷移のモデルを使う。t2から推定されるt1の状態とt1のそもそもの状態を近づける。逆に推論する形になるのでVAE。割といいと思うけど、実際にはそれほどうまくいかないのだろうか。
NA
[502] Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data (2020)
Emily M. Bender, Alexander Koller
ACL 2020
U. Washington, Saarland U.
BERTが意味を理解していないこと、にも関わらずしばしばそう表現されることについて。意味を理解するとは何か、サールやハーナッドの議論も出てくる。オクトパステスト。海中のたこが通信路を傍受しているシナリオ。実世界とのインタラクションや他者とのインタラクションが重要ということ。ただし、「絵」などの概念は出てこない。
NA
[503] Model-based Adversarial Imitation Learning
2016
NA
[504] Reinforcement Learning Upside Down: Don't Predict Rewards -- Just Map Them to Actions
2019
NA
[505] Model Imitation for Model-Based Reinforcement Learning
2019
NA
[506] Grounding Language in Play (2020)
Corey Lynch, Pierre Sermanet
2020
Robotics at Google
自然言語で指示を出せるようにしたい。以前のLearning from Play (LfP)は、一般的なセンサから多くのロボットの行動を学習する簡単なしくみを示した。しかし、それぞれのタスクがゴールの画像で特定されている必要があり、これは現実的な設定ではない。
本研究では、複数文脈模倣学習(Multi Context Imitation Learning; MCIL)を提案する。画像と言語で条件づけて学習し、テストのときは言語だけを使う。
NA
[507] Objects as Points
2019
NA
[508] MMDetection: Open MMLab Detection Toolbox and Benchmark
2019
17 citation
[509] Counting Everyday Objects in Everyday Scenes (2017)
Prithvijit Chattopadhyay, Ramakrishna Vedantam, Ramprasaath R. Selvaraju, Dhruv Batra, Devi Parikh
CVPR2017
Virginia Tech, Georgia Tech
画像のなかにボトルが何個か、スプーンが何個か、椅子が何脚かなどを数える。コンテキストをRNNで共有して、サブ領域でカウントするような手法。
5 citation
[510] PixelCNN models with Auxiliary Variables for Natural Image Modeling (2017)
Alexander Kolesnikov, Christoph H. Lampert
ICML2017
IST Austria
PixelCNNに、付加的な変数(¥hat{X})を加えて、2つの項に分解し、それぞれを最適化すればいいように変形する方法が知られている。これを、低解像度、高解像度等に分けることで、きれいな生成を可能にする。
712 citation
[511] DeViSE: A Deep Visual-Semantic Embedding Model (2013)
Andrea Frome, Greg S. Corrado, Jon Shlens, Samy Bengio, Jeff Dean, Marc'Aurelio Ranzato, Tomas Mikolov
NIPS2013
Google
面白いアプローチ。画像に直接ラベルをあてて学習するのではなく、ラベルをスキップグラムを使ったエンべディングにして、類似度を学習する。
18 citation
[512] Generalizing Skills with Semi-Supervised Reinforcement Learning
Chelsea Finn, Tianhe Yu, Justin Fu, Pieter Abbeel, Sergey Levine
ICLR2017 poster
UCB, OpenAI
教師なしのロボットの軌跡がたくさんあり、報酬として教師ありでラベルをつけられた軌跡が少ないときにどうするか。半教師あり強化学習(SSRL)を提案する。基本は教師ありを初期値に使い、教師なしをサンプルに加えていく。
28 citation
[513] Robust Physical-World Attacks on Deep Learning Models (2017)
Ivan Evtimov, Kevin Eykholt, Earlence Fernandes, Tadayoshi Kohno, Bo Li, Atul Prakash, Amir Rahmati, Dawn Song
2017
U. Michigan, U. Washington, UCB, Samsumg Research America
道路標識に物理的に模様を変えて誤判定させる。手法は従来と同じで、小さなpertubationを加えて、クラスを変更するのだが、ロバストにするために、さまざまな環境条件での写真や合成画像を使っている。
329 citation
[514] Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting (2015)
a
2015
天気(レーダーマップ)の予測。
141 citation
[515] Target-driven Visual Navigation in Indoor Scenes using Deep Reinforcement Learning (2016)
Yuke Zhu, Roozbeh Mottaghi, Eric Kolve, Joseph J. Lim, Abhinav Gupta, Li Fei-Fei, Ali Farhadi
ICRA 2017, 2016
0 citation
[516] Plan, Attend, Generate: Planning for Sequence-to-Sequence Models (2017)
Francis Dutil, Caglar Gulcehre, Adam Trischler, Yoshua Bengio
NIPS2017
U. Montreal
翻訳やQAの答えなどを生成する際に、アテンションを使ったRNNではなく、エンコーダ−デコーダモデルとプランニングのメカニズムが融合したものを用いる。
8 citation
[517] Dilated Recurrent Neural Networks (2017)
Shiyu Chang, Yang Zhang, Wei Han, Mo Yu, Xiaoxiao Guo, Wei Tan, Xiaodong Cui, MichaelWitbrock, Mark Hasegawa-Johnson, Thomas S. Huang
NIPS2017
IBM T. J. Watson, U. Illinois Urbana-CHampaign
深層のRNNで、1個、2個、4個先のユニットにコネクションを張るようなもの。長期の依存に対応できる。
4 citation
[518] Predicting Scene Parsing and Motion Dynamics in the Future (2017)
a
NIPS2017
5 citation
[519] Information Theoretic Properties of Markov Random Fields, and their Algorithmic Applications (2017)
a
NIPS2017
88 citation
[520] Multi-Prediction Deep Boltzmann Machines (2013)
Ian Goodfellow, Mehdi Mirza, Aaron Courville, Yoshua Bengio
NIPS2013
77 citation
[521] Sim-to-real robot learning from pixels with progressive nets (2016)
Andrei A. Rusu, Matej Vecerik, Thomas Rothörl, Nicolas Heess, Razvan Pascanu, Raia Hadsell
2016
DeepMind
Progressive Netを使ったSim-to-realの強化学習。まず、シミュレーションで複数タスクを学習し、それをベースにしながら、現実世界でのロボットを使ったタスクについて学習していく。Mujocoと実ロボットで、ロボットアームが物体にさわるなどのタスク。
161 citation
[522] Progressive neural networks (2016)
Rusu, Andrei A., et al.
2016
DeepMind
転移学習を使い、破滅的忘却を避けながら、複雑なタスクの系列を学習するのは簡単ではない。プログレッシブネットは、忘却に対して強く、事前知識を以前に学習した特徴のかたちで入れることができる。複数のタスクをカリキュラム的に順番に学習し、学習したモデルを転移させながら、その特徴との差分をもう一度学習する。ということを繰り返す。
NA
[523] Unprovability comes to machine learning
Nature 2019
Lev Reyzin
Ben-Davidらによると、機械学習の問題は、連続体仮説(可算濃度と連続体濃度の間には他の濃度が存在しないとする仮説。証明も反証もできない)に依存している。学習と圧縮は関係あり、特定の関数が学習できるかどうかは単調圧縮の一種によって特徴づけられる。学習可能かどうかは、連続体仮説が真であるときにのみ判定でき、これは証明不能であることが知られている。
19 citation
[524] Value Prediction Network (2017)
Junhyuk Oh, Satinder Singh, Honglak Lee
NIPS2017
U. Michigan, Google Brain
観測から状態の推定、ある時点の状態から次の時点の状態への推移、ある状態から行動した場合の報酬、ある状態の価値などを、NNで学習する。状態の遷移も含んでいるからモデルベースといえるが、全体でやっていることはモデルフリーの学習なので、両者の融合的と言っている。良さそうなノードから開けていくプランニングと組み合わせて用いる。
NA
[525] Understanding Back-Translation at Scale (2018)
Sergey Edunov, Myle Ott, Michael Auli, David Grangier
2018
NA
[526] Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation (2019)
Chenxi Liu, Liang-Chieh Chen, Florian Schroff, Hartwig Adam, Wei Hua, Alan Yuille, Li Fei-Fei
2019
NA
[527] Attentive Neural Processes
ICLR2019
NA
[528] Nested LSTMs (2018)
Joel Ruben Antony Moniz, and David Krueger
2018
MILA, CMU
NA
[529] Parameter-Efficient Transfer Learning for NLP
2019
NA
[530] Learning To Follow Directions in Street View (2019)
Karl Moritz Hermann, Mateusz Malinowski, Piotr Mirowski, Andras Banki-Horvath, Keith Anderson, Raia Hadsell
2019
DeepMind
NA
[531] Episodic Curiosity through Reachability (2019)
Nikolay Savinov, Anton Raichuk, Raphaël Marinier, Damien Vincent, Marc Pollefeys, Timothy Lillicrap, Sylvain Gelly
2019
Google Brain
NA
[532] Multi-Object Representation Learning with Iterative Variational Inference
2019
DeepMind
NA
[533] Recurrent Experience Replay in Distributed Reinforcement Learning
2019
DeepMind
R2D2
NA
[534] Emergent Coordination Through Competition (2019)
Siqi Liu, Guy Lever, Josh Merel, Saran Tunyasuvunakool, Nicolas Heess, Thore Graepel
ICLR 2019
DeepMind
NA
[535] Fusion of Detected Objects in Text for Visual Question Answering
2019
NA
[536] CD-MPM: Continuum Damage Material Point Methods for Dynamic Fracture Animation
2019
NA
[537] A corpus for reasoning about natural language grounded in photographs
ACL 2019
NA
[538] GQA: a new dataset for compositional question answering over real-world images (2019)
Drew A. Hudson, Christopher D. Manning
2019
Stanford
VQAとかVisual Genomeをベースにして、それを発展させたデータセット。画像と質問がセットになっている。きれいなシーングラフが作られているようだ。11万3000枚の画像、2200万の質問。
NA
[539] Small ReLU networks are powerful memorizers: a tight analysis of memorization capacity (2018)
Chulhee Yun, Suvrit Sra, Ali Jadbabaie
2018
MIT
n個のデータポイントを見つけるのにn個の隠れユニットが必要とされていたが、深さを追求すると3層のReLUネットワークだと、√nの隠れノード数でよいことを示す。
NA
[540] Adaptive computation time for recurrent neural networks (2016)
A. Graves
2016
NA
[541] Automated deep learning design for medical image classification by health-care professionals with no coding experience: a feasibility study
NA
[542] Using a Logarithmic Mapping to Enable Lower Discount Factors in Reinforcement Learning
2019
NA
[543] Stand-Alone Self-Attention in Vision Models
2019
NA
[544] Deep Equilibrium Models
2019
NA
[545] Detecting Photoshopped Faces by Scripting Photoshop
2019
NA
[546] Searching for Activation Functions (2017)
Prajit Ramachandran, Barret Zoph, Quoc V. Le
2017
Google Brain
さまざまな活性化関数を実験的に試す。その結果、swish関数を提案。f(x) = x · sigmoid(βx)
NA
[547] A comprehensive, application-oriented study of catastrophic forgetting in DNNs (2019)
B. Pfulb and A. Gepperth
ICLR2019
Hochschule Fulda, Germany
破滅的忘却についての調査。データセットD1で学習した後にD2で学習することで、パフォーマンスがどのように下がるか。基本的に、どんなモデルでも下がる。EWC(Elastic Weight Consolication)と、IMM(Incremental Moment Matching)は少しマシ。
NA
[548] Efficient Multi-Objective Neural Architecture Search via Lamarckian Evolution
ICLR2019
NA
[549] Time-Agnostic Prediction: Predicting Predictable Video Frames
ICLR2019
NA
[550] Do Neural Networks Show Gestalt Phenomena? An Exploration of the Law of Closure (2019)
Been Kim, Emily Reif, Martin Wattenberg, Samy Bengio
2019
Google
NNがゲシュタルト現象、特に閉合の法則を示すのかを調べる。閉合の法則とは、丸が点線でも途中を補って丸と分かるようなもの。三角の点線と本当の三角の距離、三角ではない点線と、本当の三角の距離などを比較することで調べることができる。結果として、NNは適切な条件下で人間同様の性質を示すことがわかった。
NA
[551] Learning Actionable Representations with Goal Conditioned Policies (2019)
Dibya Ghosh, Abhishek Gupta, Sergey Levine
ICLR2019
UCB
ACR(Actionable Representation for Control; 制御のための行動可能な表現)を提案する。2つの状態s1とs2に関してのポリシーπ(a|s, s1)とπ(a|s, s2)が多くのsを共有していればs1とs2は距離的に近いだろうと考える。この表現を使ってダウンストリームのタスクに利用する。
NA
[552] Multilingual Neural Machine Translation with Knowledge Distillation
ICLR2019
NA
[553] The role of over-parametrization in generalization of neural networks
ICLR2019
NA
[554] Deep Online Learning Via Meta-Learning: Continual Adaptation for Model-Based RL
ICLR2019
404 citation
[555] Generative Adversarial Text to Image Synthesis (2016)
Scott Reed, Zeynep Akata, Xinchen Yan, Lajanugen Logeswaran, Bernt Schiele, Honglak Lee
2016
U. Michigan, Max Planck
NA
[556] Inferring Semantic Layout for Hierarchical Text-to-Image Synthesis
CVPR2018
NA
[557] Reasoning About Physical Interactions with Object-Oriented Prediction and Planning
ICLR2019
NA
[558] Unicoder-VL: A Universal Encoder for Vision and Language by Cross-modal Pre-training
2019
463 citation
[559] Human-level concept learning through probabilistic program induction (2015)
Lake, Brenden M., Ruslan Salakhutdinov, and Joshua B. Tenenbaum
Science 2015
85 citation
[560] What learning systems do intelligent agents need? Complementary learning systems theory updated
2016
NA
[561] Self-Supervised Correspondence in Visuomotor Policy Learning
2019
NA
[562] Restoring ancient text using deep learning: a case study on Greek epigraphy
2019
NA
[563] Reinforcement Learning for Sustainable Agriculture (2019)
Jonathan Binas, Leonie Luginbuehl, Yoshua Bengio
2019
NA
[564] Unsupervised Pretraining for Sequence to Sequence Learning
2016
NA
[565] Ghost Units Yield Biologically Plausible Backprop in Deep Neural Networks (2018)
Thomas Mesnard, Gaëtan Vignoud, Walter Senn, Yoshua Bengio
2018
MILA, ETHZ, U. Bern
ゴーストユニットとよぶ抑制的な仕組みについて述べる。対象となる信号がトップ層に来ないとき、上位のレイヤーからのフィードバックを打ち消す。ゴーストユニット(GU)は、ピラミッドユニット(PU)のフィードバックを予測し、キャンセルする。ゴーストユニットによって、誤差が逆伝搬し、効率的な信用割当を行うことができる。
NA
[566] Unsupervised one-to-many image translation (2018)
Samuel Lavoie-Marchildon, Sébastien Lachapelle, Mikolaj Binkowski, Aaron C. Courville, Yoshua Bengio, R. Devon Hjelm
2018
NA
[567] Compounding the Performance Improvements of Assembled Techniques in a Convolutional Neural Network
2020
NA
[568] Learning a distance function with a Siamese network to localize anomalies in videos
2020
NA
[569] Search on the Replay Buffer: Bridging Planning and Reinforcement Learning
NeurIPS 2019
NA
[570] Anomaly Detection by Latent Regularized Dual Adversarial Networks
2020
NA
[571] Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
2018
NA
[572] Deep Learning without Weight Transport
2019
NA
[573] Visual Reasoning by Progressive Module Networks
ICLR2019
NA
[574] Biologically-Plausible Learning Algorithms Can Scale to Large Datasets
ICLR2019
NA
[575] InstaGAN: Instance-aware Image-to-Image Translation
ICLR2019
NA
[576] Learning Protein Structure with a Differentiable Simulator
ICLR2019
NA
[577] Eidetic 3D LSTM: A Model for Video Prediction and Beyond
ICLR2019
NA
[578] Overcoming the Disentanglement vs Reconstruction Trade-off via Jacobian Supervision
ICLR2019
NA
[579] Understanding and Improving Interpolation in Autoencoders via an Adversarial Regularizer
ICLR2019
NA
[580] Capsule Graph Neural Network (2019)
Zhang Xinyi, Lihui Chen
ICLR2019
南洋理工大学
カプセルを使ったグラフニューラルネットワーク。ノードの埋め込みを求めて、対応するカプセルを作り、アテンションをつけて、クラスのカプセルから出力する。アテンション+ルーティングというのがいいのかな?という感じなのと、埋め込み後の処理をカプセルに置き換えているだけの気も。10個のデータセットで実験。精度はまあまあで、それほど良いということでもない。
NA
[581] Adversarial Reprogramming of Neural Networks
ICLR2019
NA
[582] Robust Conditional Generative Adversarial Networks
ICLR2019
NA
[583] Neural Probabilistic Motor Primitives for Humanoid Control
ICLR2019
NA
[584] Near-Optimal Representation Learning for Hierarchical Reinforcement Learning
ICLR2019
NA
[585] An Empirical Study of Example Forgetting during Deep Neural Network Learning
ICLR2019
NA
[586] Probabilistic Planning with Sequential Monte Carlo methods
ICLR2019
NA
[587] Hindsight policy gradients
ICLR2019
NA
[588] Overcoming Catastrophic Forgetting for Continual Learning via Model Adaptation
ICLR2019
NA
[589] Environment Probing Interaction Policies
ICLR2019
NA
[590] CEM-RL: Combining evolutionary and gradient-based methods for policy search
ICLR2019
NA
[591] Recall Traces: Backtracking Models for Efficient Reinforcement Learning
ICLR2019
NA
[592] Learning to Make Analogies by Contrasting Abstract Relational Structure
ICLR2019
NA
[593] Quaternion Recurrent Neural Networks
ICLR2019
NA
[594] Learning to Understand Goal Specifications by Modelling Reward
ICLR2019
NA
[595] Structured Neural Summarization
ICLR2019
NA
[596] Efficient grounding of abstract spatial concepts for natural language interaction with robot platforms
2018
NA
[597] Self‐generated variability in object images predicts vocabulary growth
2019
NA
[598] Rival theories face off over brain's source of consciousness
Science 2019
NA
[599] RLBench: The Robot Learning Benchmark & Learning Environment
2019
NA
[600] Dynamics of stochastic gradient descent for two-layer neural networks in the teacher-student setup
2019
NA
[601] Embodied Multimodal Multitask Learning
2019
NA
[602] Reconciling modern machine learning practice and the bias-variance trade-off
2019
NA
[603] Stochastic Neural Physics Predictor
2019
NA
[604] Cubic Stylization
2019
NA
[605] REPLAB: A Reproducible Low-Cost Arm Benchmark Platform for Robotic Learning
2019
NA
[606] Root Mean Square Layer Normalization
2019
NA
[607] Meta-Learning Deep Energy-Based Memory Models
2019
NA
[608] RoboNet: Large-Scale Multi-Robot Learning
2019
NA
[609] CapsuleGAN: Generative adversarial capsule network (2018)
Ayush Jaiswal, Wael AbdAlmageed, Yue Wu, Premkumar Natarajan
2018
USC
GANのディスクリミネータとしてCNNではなくGANを使う。MNIST, CIFAR-10で通常のConvolutional GANより良い。
NA
[610] Q-map: a Convolutional Approach for Goal-Oriented Reinforcement Learning
2018
NA
[611] A mathematical theory of semantic development in deep neural networks
2018
NA
[612] Improvisation through Physical Understanding: Using Novel Objects as Tools with Visual Foresight (2019)
Annie Xie, Frederik Ebert, Sergey Levine, Chelsea Finn
2019
NA
[613] Symbol Emergence in Cognitive Developmental Systems: a Survey (2018)
Tadahiro Taniguchi et al.
2018
NA
[614] Generating Long Sequences with Sparse Transformers
2019
NA
[615] VERIFICATION OF NON-LINEAR SPECIFICATIONS FOR NEURAL NETWORKS
2019
NA
[616] Reinforcement learning, fast and slow
2019
DeepMind
NA
[617] Deep learning generalizes because the parameter-function map is biased towards simple functions
2018
NA
[618] BERT Rediscovers the Classical NLP Pipeline
2019
NA
[619] SOLAR: Deep Structured Representations for Model-Based Reinforcement Learning
2019
NA
[620] Google Research Football: A Novel Reinforcement Learning Environment (2019)
Karol Kurach, Anton Raichuk, Piotr Sta´nczyk, Michał Zajacy, Olivier Bachem, Lasse Espeholt, Carlos Riquelme, Damien Vincent, Marcin Michalski, Olivier Bousquet, Sylvain Gelly
2019
Google Research, Brain Team
グーグルのサッカーのシミュレータ環境。GameplayFootballシミュレータというオープンソースのものをエンジンにしている。このエンジン、ベンチマーク、アカデミー(徐々に難しくしていくシナリオ)などから成る。IMPALAとかPPO, Ape-X, DQNなどを参照用のパフォーマンスとして動かしている。
NA
[621] Sequential attend, infer, repeat: Generative modelling of moving objects (2018)
a
NIPS2018
NA
[622] Efficient inverse graphics in biological face processing
2020
NA
[623] Scalable Multi-Task Imitation Learning with Autonomous Improvement
2020
NA
[624] Thinking While Moving: Deep Reinforcement Learning with Concurrent Control
2020
NA
[625] Rapidly Adaptable Legged Robots via Evolutionary Meta-Learning
2020
NA
[626] Deep Learning for Financial Applications : A Survey
2020
NA
[627] Boredom begets creativity: A solution to the exploitation–exploration trade-off in predictive coding
2017
NA
[628] DisCor: Corrective Feedback in Reinforcement Learning via Distribution Correction
2020
NA
[629] On the spectral bias of neural networks
ICML 2018
DNNは低い周波数関数にバイアスしているらしい。
NA
[630] Mitsuba 2: A retargetable forward and inverse renderer
2019
NA
[631] Differentiable monte carlo ray tracing through edge sampling
2018
NA
[632] Deepvoxels: Learning persistent 3D feature embeddings
2019
NA
[633] Neural volumes: Learning dynamic renderable volumes from images
2019
NA
[634] Local light field fusion: Practical view synthesis with prescriptive sampling guidelines
2019
NA
[635] Deep neuroevolution: Genetic algorithms are a competitive alternative for training deep neural networks for reinforcement learning (2017)
Felipe Petroski Such Vashisht Madhavan Edoardo Conti Joel Lehman Kenneth O. Stanley Jeff Clune
2017
Uber AI Labs
勾配に基づかないGAが、パラメータの探索で、DQNとかA3Cなどと同等かよい性能を出す。勾配を使わないほうがいい場合があるということ。
GAの符号化は工夫して効率化している。
NA
[636] Batch Normalization Biases Deep Residual Networks Towards Shallow Paths
2020
NA
[637] A Primer in BERTology: What we know about how BERT works (2020)
Anna Rogers, Olga Kovaleva, Anna Rumshisky
2020
U. Copenhagen, U. Mass Lowell
BERTのモデルの150以上のサーベイ。なぜBERTがうまくいくのか、何を学習しているのかなど。
BERTの表現は階層的であり、形態素、構文チャンクや意味役割についての情報が符号化されている。統語構造は、自己注意の重みには直接は符号化されていないが、表現から統語情報を再現することはできる。BERTは、統語情報を自然に学習するが、それは言語的にアノテーションされたリソースとは異なる。BERTはNPI(Negative Polarity Item, everなど)を見つけるのがうまく、その使用を許すような言葉(whetherなど)を見つけるのがうまい。BERTは、否定を「理解」してはおらず、おかしな入力に対して鋭敏でない。BERTの統語知識は不完全であるか、タスクを解くのに必要ないかである。(おそらく後者とのこと。)
BERTは、意味役割についての知識も持っている。エンティティのタイプ、関係、意味役割、proto-rolesなども符号化している。しかし、数の表現には苦労している。浮動小数点の良い表現も得られていない。(おそらくワードピースへのトークン化にも原因がある。)また、BERTは、固有表現の置換に対して驚くほどもろい。共参照のタスクで名前を変えると85%の予測が変化する。つまり、固有表現の一般的な概念を作り出していない。
BERTは、実践的な推論や役割に基づくイベント知識に苦労している。概念の抽象的な属性や、視覚的、感覚的な属性についても苦労している。いくつかの関係タイプに関しては、普通のBERTでも知識ベースに匹敵することができる。これを引き出すためには良いテンプレート文が必要である。
しかし、BERTは世界知識に基づいて推論を行うことができない。例えば、人間が家に歩いて入ることができ、家は大きいことは知っているが、人間が家より大きいかは推論することができない。
4 citation
[638] Temporal Difference Models: Model-Free Deep RL for Model-Based Control
Vitchyr Pong, Shixiang Gu, Murtaza Dalal, Sergey Levine
ICLR2018 poster
NA
[639] Planning with Goal-Conditioned Policies
2019
NA
[640] Unsupervised Curricula for Visual Meta-Reinforcement Learning
NeurIPS2019
NA
[641] When to Trust Your Model: Model-Based Policy Optimization
NeurIPS2019
NA
[642] Reinforcement Learning and Control as Probabilistic Inference: Tutorial and Review
2018
NA
[643] Data-Efficient Image Recognition with Contrastive Predictive Coding
2019
NA
[644] FreeLB: Enhanced Adversarial Training for Language Understanding (2020)
Chen Zhu, Yu Cheng, Zhe Gan, Siqi Sun, Tom Goldstein, Jingjing Liu
ICLR2020
U. Maryland
BERTとかのモデルの訓練のときに、少しのpertubationを入れて、これを拡大するような方向にpertubationを動かすのと、ロスを最小化するようにパラメータを動かすことを、敵対的に行うことで、よりロバストな学習ができる。GLUEベンチマークでQA系のタスクで、BERT, XLNet, RoBERTaなどに付け加えることで精度が向上する。
NA
[645] Executing Instructions in Situated Collaborative Interactions
EMNLP2019
NA
[646] Evaluating Machines by their Real-World Language Use (2020)
Rowan Zellers, Ari Holtzman, Elizabeth Clark, Lianhui Qin, Ali Farhadi, Yejin Choi
2020
U. Washington, Allen Institute
悩み相談のような感じで、質問があったときに、良い回答をできるか。これをクラウドソーシングで行う。TuringAdviceは、この設定で人間並に「役に立つ」ものでなければならない。
NA
[647] MASS: Masked sequence to sequence pre-training for language generation
ICML2019
NA
[648] Variational inverse control with events: A general framework for data-driven reward definition
NIPS2018
NA
[649] Look then Listen: Pre-Learning Environment Representations for Data-Efficient Neural Instruction Following
2019
NA
[650] Plan Arithmetic: Compositional Plan Vectors for Multi-Task Control
NeurIPS 2019
NA
[651] Smooth markets: A basic mechanism for organizing gradient-based learners
ICLR2020
NA
[652] On the "steerability" of generative adversarial networks
ICLR2020
NA
[653] Recurrent Hierarchical Topic-Guided Neural Language Models
ICLR2020
NA
[654] Depth-Width Trade-offs for ReLU Networks via Sharkovsky's Theorem
ICLR2020
NA
[655] Dynamics-Aware Unsupervised Skill Discovery
ICLR2020
NA
[656] A Theory of Usable Information under Computational Constraints
ICLR 2020
NA
[657] GenDICE: Generalized Offline Estimation of Stationary Value
ICLR2020
NA
[658] Unsupervised Deep Learning for Structured Shape Matching
ICCV 2019 best paper nomination
NA
[659] Local Aggregation for Unsupervised Learning of Visual Embeddings
ICCV 2019 best paper nomination
NA
[660] SinGAN: Learning a Generative Model from a Single Natural Image
ICCV2019 best paper
NA
[661] Specifying Object Attributes and Relations in Interactive Scene Generation
ICCV2019 best paper
NA
[662] Knowledge Distillation via Route Constrained Optimization
ICCV 2019
NA
[663] Distillation-Based Training for Multi-Exit Architectures
ICCV 2019
NA
[664] Learning Lightweight Lane Detection CNNs by Self Attention Distillation
ICCV 2019
NA
[665] "Double-DIP": Unsupervised Image Decomposition via Coupled Deep-Image-Priors
ICCV 2019
NA
[666] Unsupervised intuitive physics from past experiences
2019
NA
[667] AI2-THOR: An interactive 3D environment for visual AI (2017)
Yuku Zhu, Roozbeh Mottaghi, Eric Kolve, Joseph J. Lim, Abhinav Gupta, Li Fei-Fei, Ali Farhadi
2017
Stanford U. Allen AI, CMU, U. Washington
深層強化学習のための3Dシミュレーションの環境。冷蔵庫を開けたり、レンジを開けたり、いすを倒したり、蛇口をひねったりできる。ターゲット(ゴール)と現在の観測を、SiameseなResNetに入れて、ポリシーを出す。シミュレーションで学習したものが、リアルなロボットにも少ないサンプルで転移することができる。
NA
[668] CATER: A diagnostic dataset for Compositional Actions & TEmporal Reasoning (2020)
Rohit Girdhar, Deva Ramanan
ICLR2020
CMU, Argo AI
映画のシーンで、ある人が銃を取り上げたところが一瞬映れば、その人がずっと銃をもっていると分かる。逆さまにした紙コップにピンポン玉を入れ、紙コップを動かしても人間は追跡することができる。(イヌとかネコもできる。)これをやるにはどうしたらいいか?というデータセット。動画と質問がセットになっている。
NA
[669] High-Quality Self-Supervised Deep Image Denoising (2019)
Samuli Laine, Tero Karras, Jaakko Lehtinen, Timo Aila
NeurIPS 2019
NVIDIA
参照となる画像がない場合にも、画像のノイズを除去する。
受容野にブラインドスポットがあるタイプのネットワークを使ってノイズ除去をする。
NA
[670] Social-IQ: A Question Answering Benchmark for Artificial Social Intelligence (2019)
Amir Zadeh, Michael Chan, Paul Pu Liang, Edmung Tong, Louis-Philippe Morency
CVPR2019
CMU
社会的な知能の技術のためのベンチマーク。1250の動画、7500の質問、3万の正しい答えなどから構成させる。
NA
[671] Evaluating Theory of Mind in Question Answering (2018)
Aida Nematzadeh, Kaylee Burns, Erin Grant, Alison Gopnik, Thomas L. Griffiths
ACL2018
DeepMind, UCB, Princeton U.
サリーアンテストのような心の理論の実験のためのデータセット。ToMとToM-easy。それぞれ1万サンプルで、12個のタスクと質問タイプの組み合わせから構成させる。bAbIのようなテキストベースの問題。
NA
[672] ALFRED: A Benchmark for Interpreting Grounded Instructions for Everyday Tasks (2020)
Mohit Shridhar, Josse Thomason, Daniel Gordon, Yonatan Bisk, Winson Han, Roozbeh Mottaghi, Luke Zettlemoyer, Dieter Fox
CVPR2020
U. Washington, CMU, Allen AI, NVIDIA
「マグを洗ってコーヒーメーカーに入れて」のようなタスクを実行する環境。言語と、視覚的な環境。2万5000サンプル。
NA
[673] SAPIEN: A SimulAted Part-based Interactive ENvironment (2020)
Fanbo Xiang, Yuzhe Qin, Kaichun Mo, Yikuan Xia, Hao Zhu, Fangchen Liu, Minghua Liu, Hanxiao Jiang, Yifu Yuan, He Wang, Li Yi, Angel X. Chang, Leonidas Guibas, Hao Su
2020
UCSD, Stanford U., Simon Fraser U., Google Research, UCLA
ロボットのビジョンとインタラクションタスクのためのシミュレーション環境。パーツの物理的なシミュレーションや、階層的なロボットのコントロール、多様なレンダリングに対応している。ドアを開けたり、引き出しを開けたり、食洗機を開けたり。NVIDIAのPysX物理エンジンを使って、ROSをサポート。
NA
[674] The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence (2020)
Gary Marcus
2020
ハイブリッドのAIについて。ディープラーニングの新しい手法も網羅した上で、記号操作の歴史を振り返る。言語の意味理解ができていないところの説明は丁寧。
ただし、「絵」は出てこない。(途中でメンタルモデルが出てくるので惜しい。)また、記号操作と言っているのが従来的な意味での記号操作で、その前処理をやればいいだけと信じているようで、そのあたりはだいぶ違う。ヒントン先生やベンジオ先生が反論するのも分かる。こういう立場に対しては、確かに「すべてディープラーニング」と言ってしまうほうが近い。
あと、最後に、ベンジオ先生との討論のあと、ある若い研究者から、本当はシンボルAIの研究をやりたいのにキャリアを考えるとできないと個人的なメールがあったなど、ちょっと怪文書っぽい側面も。
ただ、全体としてはよい内容。
NA
[675] Generating sentences from a continuous space
2016
NA
[676] Planning to Explore via Self-Supervised World Models (2020)
Ramanan Sekar, Oleh Rybkin, Kostas Daniilidis, Pieter Abbeel, Danijar Hafner, Deepak Pathak
2020
U. Pennsylvania, UCB, Google Brain, U. Toronto, CMU, FAIR
Plan2Exploreというモデルで、自己教師ありの強化学習。世界モデルを学習し、探索をする。モデルの基づくゼロショット学習のエージェントを実現した。
keyword: ToRead
2 citation
[677] Unsupervised Representation Learning by Predicting Image Rotations
Spyros Gidaris, Praveer Singh, Nikos Komodakis
ICLR2018 poster
NA
[678] Unsupervised representation learning by autoencoding transformations rather than data
2019
NA
[679] Unsupervised learning of visual representations by solving jigsaw puzzles (2016)
Mehdi Noroozi and Paolo Favaro
2016
U. Bern
画像から3×3のパッチを切り取ってジグゾーパズルにする。9個のpermutationなので36万通りくらいあるが、そのなかの64個を選んで、どのpermutationかを当てる問題にする。9個に分かれたCNNのsiameseネットワーク。これを事前学習するとダウンストリームのタスクに効く。面白い。
NA
[680] Representation Learning with Contrastive Predictive Coding (2018)
Aaron van den Oord, Yazhe Li, Oriol Vinyals
2018
DeepMind
コンストラスティブ予測コーディング。入力の系列から潜在変数、現在の文脈を作り、その文脈と将来の潜在変数の相互情報量が高くなるように学習する。
NA
[681] Learning deep representations by mutual information estimation and maximization (2019)
R .Devon Hjelm, Alex Fedorov, Samuel Lavoie-Marchildon, Karan Grewal, Phil Bachman, Adam Trischler, Yoshua Bengio
ICLR2019
MILA, U. Toronto
エンコーダの入力と出力の相互情報量を最大化することでよい表現が得られるはず。この論文では、エンコーダの入力全体(画像なら画像全体)と出力の相互情報量よりも、入力の一部(画像のパッチ)と出力の相互情報量を最大化するほうがより良い表現が得られることを示す。DIM(Deep InfoMax)という手法を提案。敵対的に学習する。ディスクリミネータは画像全体と画像をエンコードしたものの両方を受け取って判別する。MINE(Mutual Information Neural Estimation)という方法、NDM(Neural Dependency Method)という評価指標で表現の良さを評価。
NA
[682] Deep learning with graph-structured representations (2020)
Thomas Kipf
Ph.D. thesis, 2020
グラフコンボリューショナルネットワーク(GCN)、グラフオートエンコーダ(GAE)、リレーショナルGCN、ニューラルリレーショナル推論(NRI)、構成的模倣学習と実行(CompILE)、コンストラティブ構造世界モデル(C-SWM)について。ICMLやNIPS, ICLRなどの6本分相当。
NA
[683] Making the World Differentiable: On Using Self-Supervised Fully Recurrent Neural Networks for Dynamic Reinforcement Learning and Planning in Non-Stationary Environments (1990)
Jürgen Schmidhuber
1990
1990年という早い時期に、(深層)強化学習、世界モデル(モデルネットワークという名前)、自己教師あり学習、好奇心と飽き、メタ学習など、重要な概念が説明されている。さすが。
NA
[684] Learning to Walk in the Real World with Minimal Human Effort (2020)
Sehoon Ha, Peng Xu, Zhenyu Tan, Sergey Levine, and Jie Tan
2020
Georgia Tech, Google, UCB
人間の最低限の介在のみで、歩くロボット(4つ足の小さなもの)が数時間で学習できたという論文。フラットな床、ドアマットなどを歩く。ただし、いろいろとヒューリスティック的なところが入っており、やや誇張気味な気も。
安全なエリアから離れる、転ぶなどに対応し、自動的にリセットする。また、転ぶ確率を小さくするような制約を入れて、方策を学習する。前に進む、後退する、右に進む、左に進むなどをマルチタスク学習で学習。
NA
[685] Learning to Walk via Deep Reinforcement Learning
2018, RSS2019
NA
[686] Pose Manipulation with Identity Preservation (2020)
A. T. Ardelean, L. M. Sasu
2020
U. Brasov, ルーマニア
ある人の何枚かの写真と、ターゲットとするランドマーク(目とか鼻とか)のイメージを入力とすると、その人のそのランドマークの写真を出す。GANだが、ポーズのディスクリミネータと、顔のディスクリミネータを使う。
NA
[687] 3D Photography using Context-aware Layered Depth Inpainting
2020
NA
[688] Language as an Abstraction for Hierarchical Deep Reinforcement Learning (2019)
Yiding Jiang, Shixiang Gu, Kevin Murphy, Chelsea Finn
NeurIPS2019
Google Research
言語で指示が与えられて、それを実行する。2層からなる階層的強化学習。この1層目と2層目の間に言語を入れる。状態から言語を生成するのはキャプショニングに近い。また、状態(センサ入力)と言語からアクションを生成するのも、VQA(視覚的質問応答)に近い。Double DQNで学習。言語指示を張り替えるリラベルというのも行う。(全体システムはいまいちよく分からない。)
物理空間のタスクで、物体を色で並び替える、形で並び替えるなどのタスク。
NA
[689] A Differentiable Physics Engine for Deep Learning in Robotics (2017)
Jonas Degrave, Michiel Hermans, Joni Dambre & Francis wyffels
2017
Ghent U., Belgium
物理シミュレーションを、Theanoで書く。すると、全体が微分可能になる。例えば、サッカーボールをあるところに入れるとしたら、初期速度と初期角度を微分して求めることができる。強化学習の(方策ではなく)コントローラー自身を最適化することもできる。
NA
[690] Towards the first adversarially robust neural network model on MNIST
2018
NA
[691] Deep learning robotic guidance for autonomous vascular access (2020)
Alvin I. Chen, Max L. Balter, Timothy J. Maguire and Martin L. Yarmush
Nature Machine Intelligence, 2020
The State U. of New Jersey, 米国
腕の血管をディープラーニングで認識して、注射をロボットで指す。すごい。
ICUなどの処置の90%は血管へのアクセスを必要とし、アメリカでは年間10億回、血管のアクセスを確保する手続きが行われている。これをロボットで自動化し、血管にアクセスする際のトライアルの失敗の回数を平均1.8回から0.3回へ、6倍も精度を上げた。
82 citation
[692] Composing graphical models with neural networks for structured representations and fast inference (2016)
Matthew James Johnson, David Duvenaud, Alexander B. Wiltschko, Sandeep R. Datta, Ryan P. Adams
NIPS 2016
Harvard U.
確率的グラフィカルモデルとディープラーニングのいいところを組み合わせる。潜在変数zからガウス混合モデルでyが生成されるとすると、ガウス分布を過程するがゆえにうまく表せないクラスタの形がある。一方、ニューラルネットワークで平均・共分散を指定してやるようなVAEを使えば、うまくクラスタを捉えることができるが、今度はクラスの違いを表せない。そこで、潜在変数zからニューラルネットワークで平均・共分散を指定されてxが生成され、それがyを生成するという形にすることで、両方のいいころをとることができる。これをSVAE(structured VAE)と呼んでいる。
189 citation
[693] Semi-Supervised Classification with Graph Convolutional Networks (2017)
Thomas N. Kipf, Max Welling
2016, ICLR2017
3000以上の引用
NA
[694] Wizard of Wikipedia: Knowledge-Powered Conversational Agents (2019)
Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, JasonWeston
ICLR2019
FAIR
素人(ユーザ)と魔法使い(コンピュータ)が与えられたトピックに関して短い会話をする。与えられたトピックに関して、検索した結果を知識として使う。これを最初のトランスフォーマエンコーダに入れ、アテンションをかけたものを、会話の流れとともに次のトランスフォーマエンコーダに入れ、そして、トランスフォーマのデコーダで出力する。エンドトゥエンドにやる場合と、2ステージで別々のタスク(知識選択と発話予測)を行う場合の2種類考えられるが、後者のほうがパフォーマンスは良い。
NA
[695] MONet: Unsupervised Scene Decomposition and Representation (2019)
Christopher P. Burgess, Loic Matthey, Nicholas Watters, Rishabh Kabra, Irina Higgins, Matt Botvinick, Alexander Lerchner
2019
DeepMind
DQNの複数オブジェクト版のような感じ。画像をオブジェクトにわけて、オブジェクトごとにアテンションをかけ、マスクをして、それぞれをVAEで再構成する。オブジェクトに分けるところは、反復的に行う(ので数を指定しなくて良い。)とても良いアーキテクチャ。Muti-Object Network (MONet)。CLEVRデータセットで実験。
keyword: ToRead
NA
[696] Meta-Reinforcement Learning for Robotic Industrial Insertion Tasks (2020)
Gerrit Schoettler, Ashvin Nair, Juan Aparicio Ojea, Sergey Levine, Eugen Solowjow
2020
Siemens, UCB
ロボットのインサーションタスク。Sawyerロボットを使って、ミスミの電気コネクタをソケットに入れるのと、ギアをシャフトに入れる。メタ学習とsim-to-realを使っている。現実の20試行でできるようになる。完成度高い。
NA
[697] On the Efficacy of Knowledge Distillation (2019)
Jang Hyun Cho and Bharath Hariharan
ICCV 2019
Cornell U.
知識蒸留がどのような生徒と教師のアーキテクチャのときにうまくいくか。教師の容量が大きく、精度が高いと、逆に蒸留の精度は落ちる。これは容量のミスマッチがあるからで、うまく真似できないため。早期終了とか、シーケンシャルに蒸留のステップを複数回やるなどが有効。
47 citation
[698] Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer
Sergey Zagoruyko, Nikos Komodakis
ICLR2017 poster
NA
[699] Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self Distillation (2019)
Linfeng Zhang, JIebo Song, Anni Gao, Jinwei Chen, Chenglong Bao, Kaisheng Ma
ICCV 2019
Tsinghua Univ., IIISCT, Hisilicon
すごい論文。自己蒸留と言っているが、最終層の出力と、中間層の出力を近づけるような制約を入れることで、最終層の結果をより早く出せるようになり、結果として最終層の精度が上がる。(エージェント的により早く予測するものが生き残るという考え方とも共通。)CIFAR100やImagenetのtop-1で1-2%あがっている感じ。かなり大きい上がり幅。
NA
[700] Improving Neural Machine Translation Models with Monolingual Data
2015
back translation論文
NA
[701] Propagation Networks for Model-Based Control under Partial Observation
2018
NA
[702] A Causal View on Robustness of Neural Networks (2020)
Cheng Zhang, Kun Zhang, Yingzhen Li
ICLR2020
MSR, CMU
深層因果操作拡張モデル(deep CAMA)というのを提案。変数間の因果モデルを仮定して、入力の操作(敵対的攻撃)に強いモデルを作る。
NA
[703] Rigging the Lottery: Making All Tickets Winners (2019)
Utku Evci, Trevor Gale, Jacob Menick, Pablo Samuel Castro, Erich Elsen
2019
Google, DeepMind
宝くじで八百長をする、というタイトル。宝くじ仮説が、密なネットワークから、疎なネットワークを取り出し、初期値がラッキーであれば、密なネットワークと同じような精度が出る。ところが、密なネットワークの計算がボトルネックになってしまう。従来研究で、疎なネットワークから疎なネットワークを作る手法がいろいろとあり、だいたいは、ランダムにエッジを加える、重みの大きさで消去するということを繰り返すもの。
本研究もそういった研究のひとつだが、ランダムにエッジを加えるのではなく、アクティブにしたエッジの微分を取って、微分の大きなものを加えるという戦略を取る。高い精度が低い計算量で出せる。
NA
[704] Self-Supervised Learning of Pretext-Invariant Representations (2020)
Ishan Misra, Laurens van der Maaten
2019, CVPR 2020
FAIR
画像の自己教師あり学習。前テキスト(pretext)のタスクにおける意味のある表現を見つけ出すことは、意味的なアノテーションを必要とせず、重要である。これまで、画像を変形し(回転やアフィン変換、ジグゾーパズル変換など)、その共変量を表現として見つけることが多かったが、ここでは変形に対しての不変量を求める。
つまり、変形をしたものともとのものの表現が近づくように学習する。
Pretext-Invariant Representation Learning (PIRL)を提案。
NA
[705] Training Agents using Upside-Down Reinforcement Learning (2019)
Rupesh Kumar Srivastava, Pranav Shyam, Filipe Mutz, Wojciech Jaskowski, Jürgen Schmidhuber
2019
NNAISENSE, The Swiss AI Lab IDSIA
すごい。さすがSchmidhuberさん。強化学習がそもそも何かおかしくて、もっと教師あり的にやるべきと思っていたやつ。
観測とアクションから価値(期待報酬)を算出するのではなく、観測と報酬などのコマンドから、アクションを出すべき。つまり、報酬は入力になる。考え方は正しいと思う。
で、アルゴリズム2というのが、生成モデル的にエピソードを増やしていって想像する部分。これもいいと思う。
keyword: ToRead
NA
[706] Learning Robust Representations via Multi-View Information Bottleneck (2020)
Marco Federici, Anjan Dutta, Patrick Forre, Nate Kushmann, Zeynep Akata
2020
U. Amsterdam, U. Exeter, MSR, U. Tuebingen
2つの視点から2つの画像が生成されるとき、潜在変数zに対して、v1, v2が生成される。I(v2; z1)が、z1がv2に対してもつ予測性であり、I(v1; z1|v2)は、v1がz1に対してもつ、v2以外の余りの(superfluous)情報である。というようなことを使って、ボトルネックの目的関数を設定する。
NA
[707] Deep Double Descent: Where Bigger Models and More Data Hurt (2019)
Preetum Nakkiran, Gal Kapluny, Yamini Bansaly, Tristan Yang, Boaz Barak, Ilya Sutskever
2019
Harvard U., OpenAI
面白い。二重降下という現象について。同じモデルでパラメータ数(例えばResNetの幅)を大きくしていくと、いったん悪くなり、その後、よくなる。また、エポック数を減らしていくと、この二重降下の現象は消える。(精度は悪くなるが。)早期終了に相当する。
二重降下の最初の部分は、偏りと分散のトレードオフとして知られているもので、大きなモデルほど悪い。一方、二重降下のあとの部分は、ディープラーニングの実践家によって知られているもので、大きなモデルほど良い。これは二重降下の状況下では、矛盾しない現象ということになる。
NA
[708] Mish: A Self Regularized Non-Monotonic Neural Activation Function written by Diganta Misra (2019)
Diganta Misra
2019
Mish関数は、f(x)=x・tanh(softplus(x))。ソフトプラス関数はsoftplus(x)=ln(1+e^x)。ReLUやSwishよりよい。xの値が負から0へ近づいていくとき、いったん値がマイナスに下がる。0のとき0で、あとはほぼ線形に上がる。Swishに似ている。マイナスの領域の下がりかたがわずかにきつい。Swish(x)=x・σ(βx)。ここで、σ=1/(1+e^-βx)で、普通のシグモイド関数。
NA
[709] VL-BERT: Pre-training of Generic Visual-Linguistic Representations (2020)
Weijie Su, Xizhou Zhu, Yue Cao, Bin Li, Lewei Lu, Furu Wei, Jifeng Dai
ICLR 2020
U. of Science and Technology of China, MSRA
ViLBERTとかと近く、テキストからの埋め込みと画像特徴からの埋め込みの両方を使うもの。Fast(er) R-CNNのRoI(Region of Interest)のボックス座標と画像特徴を使う。VilBERTはテキストと画像のco-attentionのトランスフォーマを使っていたが、こちらはフラットに入れている。精度も似たようなもの。
NA
[710] Learning the Arrow of Time for Problems in Reinforcement Learning (2020)
Nasim Rahaman, Steffen Wolf, Anirudh Goyal, Roman Remme, Yoshua Bengio
ICLR 2020
ドイツ、カナダ
マルコフ過程における時間の矢。といっても物理学における時間の謎ということではなく、熱力学第2法則的にエントロピーが増大するというのを捉えることなので、ちょっと大げさ。(結局、熱力学第2法則と時間が関連してるのでまあいいけど。)
花瓶が落ちて壊れて元にもどらないのをどう捉えればよいか。hという関数を定義し、もとに戻れない状態になったときに上っていくように、もとに戻れるときは値が変わらないような性質を持つようにする。そのために、関数Jを定義し、Jを最大化するものとしてhを定義する。Jは、サンプリングした状態の遷移においてのhの変化をとるもの。2状態の順逆の遷移が同様によく起こるのであれば、hは変わらなくてよいが、順方向だけおこるのであれば、hが時系列に増えた場合にJが大きくなる。この効果と正則化(L2)を組み合わせている。
応用としては、方策による到達可能性、副作用と安全な探索、好奇心に対しての報酬(めったに到達できない状態をありがたがる)などが考えられる。
NA
[711] Contrastive Learning of Structured World Models (2020)
Thomas Kipf, Elise van der Pol, Max Welling
ICLR 2020
U. Amsterdam
C-SWM。画像から物体検出し、オブジェクトにエンコードし、グラフニューラルネットワークで相互作用をモデル化する。コンストラスティブ損失を使う。手法の考え方としては正しい。実験は2DシェイプとかAtariのゲームとか。
NA
[712] Hierarchical Foresight: Self-Supervised Learning of Long-Horizon Tasks via Visual Subgoal Generation (2020)
Suraj Nair, Chelsea Finn
ICLR 2020
Stanford, Google Brain
初期画像とゴール画像が与えられる。このとき、途中経過を表す複数のサブゴール画像を生成モデルで生成する。初期画像からサブゴール画像をたどってゴール画像までいくときの推定コストが最小になるようにサブゴールを選ぶ。サブゴール画像が選ばれると、あとは、2つの画像を入力とする視覚的MPCで実行できる。
サブゴール画像を生成するのに時間とかアクションとかいろいろ条件づけないといけない気がするけど、割と初期画像とゴール画像が近いからこれでできるのだろうか。
NA
[713] Learning Hierarchical Discrete Linguistic Units from Visually-Grounded Speech (2020)
David Harwath, Wei-Ning Hsu, and James Glass
ICLR 2020
MIT
ZeroSpeech 2019 challengeというのが、TのないTTS、つまり音声からテキストにし、それを音声にするのではなく、音声からサブワードのユニットを発見し、それを使って音声合成するというもの。
この論文は、彼らの前の論文の手法に、ベクトル量子レイヤー(Neural Discrete Representation Learning, Oriol Vinyalsら2018)を入れたもの。ベクトル量子レイヤーは量子化だが、ある種のボトルネック層として働く。
NA
[714] Reformer: The Efficient Transformer (2020)
Nikita Kitaev, Lukasz Kaiser, Anselm Levskaya
ICLR 2020
UCB, Google Research
トランスフォーマは特に長いシーケンスに対して、非常にコストが高い。内積の部分を、局所的なハッシングに変えて、計算のオーダーを下げる。また、反転可能な残余層を使うことで、学習効率を上げる。
NA
[715] Building Deep Equivariant Capsule Networks (2020)
Sairaam Venkatraman S.Balasubramanian R. Raghunatha Sarma
ICLR 2020
Sri Sathya Sai Institute of Higher Learning, India
カプセルネットワークで、等価性の保存をするらしい。SOVNET(Space-Of-Variation)という名前。ベースラインとはそこそこ。むしろDeepCapsとかが良さそう。
NA
[716] DeepCaps: Going Deeper with Capsule Networks (2019)
Jathushan Rajasegaran, Vinoj Jayasundara, Sandaru Jayasekara, Hirunima Jayasekara, Suranga Seneviratne, Ranga Rodrigo
2019
University of Moratuwa, University of Sydney
カプセルネットワークに、ResNetのようなスキップコネクションを入れたもの。
NA
[717] Convolutional Conditional Neural Processes (2020)
Jonathan Gordon, Wessel P. Bruinsma, Andrew Y. K. Foong, James Requeima, Yann Dubois, Richard E. Turner
ICLR 2020
U. Cambridge
CNPのエンコーダにtranslation equivalentなCNNの要素を入れる。
NA
[718] Meta-Learning without Memorization (2020)
Mingzhang Yin, George Tucker, Mingyuan Zhou, Sergey Levine, Chelsea Finn
ICLR 2020
UT Austin, Google Research, UCB, Stanford
メタ学習をさせるときは、実は、メタ訓練タスクが相互に排他的になるように、つまり、ひとつのモデルで全てが解けないように設計しないといけない。この論文では、メタ正規化(MR)というのを提案する。
メタ学習の記憶の問題は、通常の教師あり学習での過学習の問題と異なる。メタなパラメータθが情報をもたないということ。
メタ正則化として、XからYへのパスにzを置いてボトルネックを作る。MAMLとかCNP(Conditional Neural Process)と組み合わせる。
NA
[719] CLEVRER: Collision Events for Video Representation and Reasoning (2020)
Kexin Yi, Chuang Gan, Yunzhu Li, Pushmeet Kohli, Jiajun Wu, Antonio Torralba, Joshua B. Tenenbaum
ICLR 2020
Harvard, MIT
CoLision Events for Video REpresentation and Reasoning (CLEVRER)データセット。ものを動かして衝突するかどうか。動画と、叙述的、説明的、予測的、仮想的な質問のセット。1万サンプル。
ベースになるシステムとして、動画からMask R-CNNで物体を取り出す、質問文をLSTMで関数プログラムに直す、物体のダイナミクスをPropagation Networkでモデル化する、答えを作る、という4つのパートから成るものを提案している。
NA
[720] CoPhy: Counterfactual Learning of Physical Dynamics (2020)
Fabien Baradel, Natalia Neverova, Julien Mille, Greg Mori, ChristianWolf
ICLR 2020
U. Lyon, FAIR, INSA Center, U. Borealis AI, CITI Laboratory, France
Counterfactual Physics benchmark suite (CoPhy)というデータセットを提案。反事実的な物理ベンチマークスイート。3つのシナリオから成る。ブロックタワーCF、ボールCF、衝突CF。で、介在する設定(なので反事実)として、ブロックを別の場所に置いたり取り除く、ボールの摩擦を変えるなど。
解き方としては、物体の数が把握できているとして、GCNに入れて、RNNと組み合わせて学習。
NA
[721] Winning the Lottery with Continuous Sparsification (2020)
Pedro Savarese, Hugo Silva, Michael Maire
ICLR 2020
TTI Chicago, U. Chicago
宝くじ仮説の当たりクジを見つけるためのプルーニングの方法(Iterative Magnitude Pruning、値の小さいのを学習後にプルーニングして、パラメータを調整し直す方法)を改良する。
提案手法では、l0ノルムを使う。明示的にプルーニングしなくてもよい。l0ノルムは扱いにくいので、0-1変数をつかったl1ノルムにして、0-1変数を確率的な変数(とみなせるようなマッピング)にする。
NA
[722] NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture Search (2020)
Xuanyi Dongyz and Yi Yangy
ICLR 2020
U. of Technology Sydney, Baidu Research
NAS-Bench-101の発展版。固定された探索空間、最新のNASのアルゴリズムのほぼどれにでも使える、統合されたベンチマーク。
NA
[723] Mirror-Generative Neural Machine Translation (2020)
Zaixiang Zheng, Hao Zhou2, Shujian Huang, Lei Li, Xin-Yu Dai, Jiajun Chen
ICLR 2020
Nanjing U., ByteDance AI Lab
パラレルコーパスがない場合の翻訳。back translation(Sennrich et al., 2016)というのがあるけど、2方向を反復的にアップデートする。ターゲットからソースを作り、それをデータとして、ソースからターゲットのモデルを更新する。それを使って、ソースからターゲットを作り、それをデータとして、ターゲットからソースのモデルを更新する。2つの翻訳モデルは相互に独立している。
これらを一緒に学習するものとして、joint back-translation (Zhang et al., 2018)とか、dual learning (He et al., 2016)があるが、それでも翻訳モデルは相互に独立している。
本研究では、共通の潜在変数zを仮定し、2つのモデルが同時に良くなるようにする。
精度は、transformer+dual learningなどより微妙に良い。
NA
[724] Understanding and Robustifying Differentiable Architecture Search (2020)
Arber Zela, Thomas Elsken, Tonmoy Saikia, Yassine Marrakchi, Thomas Brox & Frank Hutter
ICLR 2020
U. Freiburg, Bosch Center for AI, ドイツ
DARTSを改良する。うまく行かない例がいくつかあり、バリデーションロスのアーキテクチャパラメータに対するヘシアンの支配的な固有値があるときに、汎化誤差が大きくなる。これを頑健にするために、データ拡張とL2正則化を、早期終了と組み合わせる。
NA
[725] The Logical Expressiveness of Graph Neural Networks (2020)
Pablo Barcelo, Egor V. Kostylev, Mikael Monet, Jorge Perez, Juan Reutter, Juan-Pablo Silva
ICLR 2020
IMC, PUC, DCC, IMFD Chile, チリ
通常のGNN(AC-GNNとよぶ)は、FOC2のクラスの論理式を表すには弱すぎる。FOC2とは、一階述語論理の自由な変数を2個にし、カウンティング限量子(少なくともk個ある)を加えたもの。
GNNを改良したACR-GNNは、読み出しの機能を強化しており、ノードの属性を近傍だけでなく、大域的な属性ベクトルに応じて更新することで、FOC2分類を表せるようにしている。
NA
[726] Implementation Matters in Deep RL: A Case Study on PPO and TRPO (2020)
Logan Engstrom, Andrew Ilyas, Shibani Santurkar, Dimitris Tsipras, Firdaus Janoos, Larry Rudolph, and Aleksander Madry
ICLR 2020
MIT, Two Sigma
PPOとTRPOを例に、コードレベルの最適化が大きな影響をもたらしていることを示す。細かい最適化が、PPOがTRPOよりも良いことのほとんどを構成し、RLの手法がどう動くかを大きく変える。価値関数クリッピング、報酬スケーリング、直交する初期化と層のスケーリング、アダム学習率アニーリング、報酬クリッピングなど。
NA
[727] Learning to Balance: Bayesian Meta-Learning for Imbalanced and Out-of-distribution Tasks (2020)
Hae Beom Lee, Hayeon Lee, Donghyun Na, Saehoon Kim, Minseop Park, Eunho Yang, Sung Ju Hwang
ICLR 2020
KAIST, TmaxData, AITRICS, 韓国
MAMLで、θから始めてタスク依存なθ^tauにいくときに、サンプルの少ない小さなタスクはあまり動かさず、大きなタスクは大きく動かすことになっていた。また、クラス数が違うタスクでも固定されたステップ数だったためタスクごとにどのくらい学習する必要があるか考慮していないかった。またOOD(Out-of-distribution)のタスクではメタ知識があまり使えないが、そのような差も考慮していなかった。
これらをバランスを取るのが提案手法のTask-Adaptive Meta-Leaning(TAML)。
NA
[728] Recurrent Hierarchical Topic-Guided Neural Language Models (2020)
Dandan Guo, Bo Chen, Ruiying Lu, Mingyuan Zhou
ICLR 2020
Xidian U., U. Texas Austin
rGBM(リカレント・ガンマ・ビリーフネットワーク)を使って、階層化されたRNNで言語モデルを学習する。
NA
[729] Principled Weight Initialization for Hypernetworks (2020)
Oscar Chang, Lampros Flokas, Hod Lipson
ICLR2020
Columbia U.
ハイパーネットワークの初期化。Glorot(var(W^i_j)=2/(di+dj))とか、Kaiming Heの初期化(ReLUに向いたもの)はうまく動かない。これに変わるような初期化の提案。
NA
[730] Differentiable Reasoning over a Virtual Knowledge Base (2020)
Bhuwan Dhingra Manzil Zaheer, Vidhisha Balachandran, Graham Neubig, Ruslan Salakhutdinov, William W. Cohen
ICLR 2020
CMU, Google Research
質問中のエンティティの言及から、マルチステップの確率伝搬モデルを作り、答える。模擬的な知識ベースのような感じ。end-to-endで学習する。
NA
[731] Data-dependent Gaussian Prior Objective for Language Generation (2020)
Zuchao Li, Rui Wang, Kehai Chen, Masao Utiyama, Eiichiro Sumita, Zhuosheng Zhang, Hai Zhao
ICLR 2020
Shanghai Jiao Tong U., NICT
言語生成を行う場合に、グランドトゥルースのシーケンスを使った最尤推定を行うと、マッチしていないシーケンスは全て一様にマイナスになる。(惜しいのもそうでないのも関係なくなる。)そこで、データに依存したガウス事前目的関数(data-dependent Gaussian prior objective (D2GPo) )をいれる。
NA
[732] Mathematical Reasoning in Latent Space (2020)
Dennis Lee, Christian Szegedy, Markus N. Rabe, Sarah M. Loos and Kshitij Bansal
ICLR 2020
Google Research
潜在空間でいくつかのステップで数学的な推論するようなニューラルネットワークを考える。数式のリライトなどを学習。数式がグラフの形でグラフニューラルネットワークに入れられ、それがMLPを介して出力される。HOList環境というもので実験。2万近い定理が含まれる。
NA
[733] Causal Discovery with Reinforcement Learning (2020)
Shengyu Zhu, Ignavier Ng, Zhitang Chen
ICLR 2020
Huawei Noar's Ark Lab, U. Toronto
データを記述するのに、エンコーダ・デコーダで記述し、デコーダの出力をDAG(Directed Acyclic Graph)を表すような隣接行列とする。どういうDAGがいいかは、BIC基準。これをスコアとして強化学習で良いDAGを見つける。それが、因果関係の構造の発見になっている。30ノード、50ノードくらいの小規模な実験。
NA
[734] Deep Learning for Symbolic Mathematics (2020)
Guillaume Lample, François Charton
ICLR2020
FAIR
Matlabとかマセマティカより、微分方程式等の解をきちんと求められる。10秒とか30秒以内ということのよう。
式を木で表現。Transformerを使ったseq2seq。積分とか微分などの課題でデータセットを作っている。
NA
[735] Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue (2020)
Byeongchang Kim, Jaewoo Ahn, Gunhee Kim
ICLR 2020
Seoul National U., 韓国
知識を入れた会話のためには、知識の選択と発話の生成のステップがあるが、前者を扱う。系列知識トランスフォーマ(sequential knowledge transformer(SKT))を提案。知識の選択を単一の決定ではなくて、時系列の決定過程とみなす。対話の段階ごとに、知識プールを用意し、サンプリングしていく。
Wizard of Wikipediaデータセットを使う。
NA
[736] The Ingredients of Real World Robotic Reinforcement Learning (2020)
Henry Zhu, Justin Yu, Abhishek Gupta, Dhruv Shah, Kristian Hartikainen, Avi Singh, Vikash Kumar, Sergey Levine
ICLR 2020
UCB, U. Oxford, U. Washington
ロボットの学習のために、(i)人がリセットしなくてもいいようにしたい。(ii)オンボードの知覚だけにしたい(別のカメラを用意したくない)し、(iii)手作りの報酬関数を使いたくない、
(i)のためにランダム摂動コントローラというものを使う。あまり訪問したことのない状態を求める内的な報酬を使った別の方策で初期状態を決める。
(iii)のために、イベントの変分逆コントロール(VICE)というものを使う。一連の画像を見て、タスクが完了するのかどうかを学習する。これによって、強化学習を方向づけることができる。(ii)のために、VAEを使って状態を低次元で表す。
ノウハウではあるが、ちゃんと先に進んで分かることが整理されてて素晴らしい。
NA
[737] Neural Arithmetic Units (2020)
Andreas Madsen, Alexander Rosenberg Johansen
ICLR 2020
Technical University of Denmark, デンマーク
NNは足し算や掛け算をするのは得意ではない。ここでは、x1, ..., xnの入力があったときに、例えば、(x1+x2)(x1+x2+x3+x4)を計算するような学習をさせる。そのためにNALU(Neural Arithmetic Logic Unit, Trask et al. 2018)という研究があったが、これを発展させる。掛け算のところを工夫する。(かなり恣意的なネットワークではある。)
NA
[738] Differentiation of Blackbox Combinatorial Solvers (2020)
Marin Vlastelica, Anselm Paulus, V´ıt Musil, Georg Martius, Michal Rolinek
ICLR 2020
MaxPlanck, Germany, Universita degli Studi di Firenze, Italy
組み合わせ最適化をNNのブロックのひとつとして使う。組み合わせ最適化問題自体を緩和するとかはやらない。誤差逆伝播をどうやるかだが、線形な関数で内挿することで勾配を伝えることができる。
NA
[739] BackPACK: Packing more into Backprop (2020)
Felix Dangel, Frederik Kunstner, Philipp Hennig
ICLR 2020
U. Tuebingen
これまでのDLのフレームワークは、ミニバッチの勾配の平均を計算することに最適化されてきた。分散やヘシアンなどの他の値も「理論的には」とれるはずだが、自動微分の枠組みではサポートされていなかった。それが結果的に、不必要に研究のスコープを狭めてきた。
BakPACKは、PyTorch上の誤差逆伝播のアルゴリズムで、1次、あるいは2次の微分を取り出すことができる。
オリジナルの逆伝搬のパスですでにある情報を使ったものを1次拡張、さらに付加的な情報の伝搬を必要とするものを2次の拡張とする。1次拡張で、勾配の分散やl2ノルム、2次拡張でクロネッカー因子分解とか、一般化ガウスニュートン行列などを扱うことができる。
Adamとかモーメンタムとかよりは、テスト、訓練ともに同じエポックでは良い精度。オーバーヘッドもそんなに大きくない。(1.5倍とか。最も重くて3倍いかない。)
NA
[740] Playing atari with six neurons (2019)
Giuseppe Cuccu, Julian Togelius, Philippe Cudre-Mauroux
2019
U. Fribourg (スイス), NYU(米国)
Atariの強化学習で、画像処理と、意思決定のところをわける。コンパクトな状態表現を得るために、ベクトル量子化を辞書的にしたもの(クラスタリング)を用い、観測が増えると辞書を増やすような工夫を行う。直接残余スパースコーディングでは、再構成誤差ではなく、情報量が多くなるように学習する。結果として、Atariのゲームを6つから18個くらいのニューロンでそこそこの精度(比較手法と遜色ないくらい)で解けた。
NA
[741] Continual learning with hypernetworks (2020)
Johannes von Oswald, Christian Henning, João Sacramento, Benjamin F. Grewe
2020
U. of Zurich and ETHZ, スイス
ハイパーネットワークで個別タスクの重みを生成する。破滅的忘却を回避するために、古いタスクのモデルは固定する。過去のモデルの出力を教師データと見なした項を入れることで実現する。
NA
[742] Deep neuroevolution of recurrent and discrete world models (2019)
Sebastian Risi and Kenneth O. Stanley
2019
UberAI
Haらの世界モデルの研究において、3つのパートそれぞれに学習しているが、GAでまとめて最適化する。GAといっても、重みにガウシアンノイズを載せることのようで、ポピュレーション200で1000世代で実行するとうまくいくようだ。
NA
[743] DiffTaichi: Differentiable Programming for Physical Simulation (2019)
Yuanming Hu, Luke Anderson, Tzu-Mao Li, Qi Sun, Nathan Carr, Jonathan Ragan-Kelley, Frédo Durand
ICLR 2020, arxiv 2019
MIT CSAIL, Adobe Research, UCB
微分可能な物理シミュレータのための、新しい微分可能プログラミング言語。
NA
[744] Understanding Generalization in Recurrent Neural Networks (2020)
Zhuozhuo Tu, Fengxiang He, Dacheng Tao
ICLR 2020
U. Sydney
RNNは強力であるが、これまでの汎化性能の上限は、サイズに依存していた。本研究では、サイズに依存しない、ノイズがある訓練での汎化性能の限界を示す。
NA
[745] Large Batch Optimization for Deep Learning: Training BERT in 76 minutes (2020)
Yang You, Jing Li, Sashank Reddi, Jonathan Hseu, Sanjiv Kumar, Srinadh Bhojanapalli, Xiaodan Song, James Demmel, Kurt Keutzer, Cho-Jui Hsieh
ICLR 2020
Google, UCB, UCLA
大きなバッチサイズのほうがスピードがあがる。従来研究のLARSは、BERTなどのアテンションモデルではうまくいかない。LARSはモーメンタムをベースにして大きなバッチに対応したものだが、本研究で提案するLAMBはAdamをベースにしている。(AdamはBERTにうまくいくことが知られている。)バッチサイズをメモリ限界まで大きくし、TPUv3で学習させることで、3日かかっていたものが76分でできるようになった。(著者のひとりは昔知り合いのXaodanだった。)
NA
[746] Reinforcement Learning Based Graph-to-Sequence Model for Natural Question Generation (2020)
Yu Chen, Lingfei Wu, Mohammed J. Zaki
ICLR 2020
Rensselaer Polytechnic Institute, IBM Research
質問生成。関連する文と答えが入力され、質問文を生成する。これを、グラフエンコーダ、グラフ埋め込み、RNNを使って生成し、強化学習を使ってコントロールする。
NA
[747] Sharing Knowledge in Multi-Task Deep Reinforcement Learning (2020)
Carlo D’Eramo & Davide Tateo, Andrea Bonarini & Marcello Restelli, Jan Peters
ICLR 2020
TU Darmstadt, Politecnico di Milano, Max Planck
マルチタスク強化学習で共通の表現を持ったほうがよい。なので、個別タスクごとに入力をいったん共通の表現を介して、出力するようにする。DDPG等で、Inverted-PendulumとかHalf-Cheetahとかで実験。割と当たり前の結果。
NA
[748] SQIL: Imitation Learning via Reinforcement Learning with Sparse Rewards (2020)
Siddharth Reddy, Anca D. Dragan, Sergey Levine
ICLR 2020
UCB
デモンストレーションからの模倣学習は、高次元の連続空間では難しい。行動クローニングは誤差が蓄積する。RLやGAIL(敵対的生成モデルを使うRL)は、報酬の設定が難しい。
ここでは、デモンストレーションに含まれていれば1、そうでなければ0という報酬を与える(ソフトQ学習)ことで、よく分からない状況(OOD)のときはデモンストレーションに近づくようにインセンティブをつける。これを、ソフトQ模倣学習(SQIL)とよぶ。
NA
[749] Depth-Adaptive Transformer (2020)
Maha Elbayad, Jiatao Gu, Edouard Grave, Michael Auli
ICLR 2020
Univ. Grenoble Alpes, FAIR
トランスフォーマはタスクが難しくてもそうでなくても決まった数だけの計算しかしない。ここでは、トランスフォーマの出力を各段階で出すようにし、どのくらいの計算が必要なのかを、トークンごとに適応的に調整する。計算量が減って同様のパフォーマンス(翻訳精度)を出せる。
NA
[750] LAMOL: LAnguage MOdeling for Lifelong Language Learning (2020)
Fan-Keng SUn, Cheng-Hao Ho, Hung-Yi Lee
ICLR 2020
MIT, National Taiwan U. 台湾
生涯学習は、画像やゲームで行われることが多かったが、言語で行う。提案手法であるLAMOLは、前のタスクに対しての擬似的なサンプルを出力し、追加的なメモリやモデルの必要性なしに破滅的忘却を防ぐ。擬似的なサンプルを生成するところが特徴。
NA
[751] On Mutual Information Maximization for Representation Learning (2020)
Michael Tschannen, Josip Djolonga, Paul K. Rubenstein, Sylvain Gelly, Mario Lucic
ICLR 2020
Google Research, Brain Team
教師なし学習や自己教師あり学習のときに、もとのデータとの相互情報量を最大化することで表現を得ることがよく行われる。このような情報量最大化の原則は問題も多い。相互情報量は計算が難しく、実際には扱いやすい下界が使われることが多い。ところが、これらには強い帰納的バイアスがあり、相互情報量自体よりも、そちらが効いている。緩い下界のほうがうまくいくこともある。
結果として、相互情報量へ接続するのは、教師なしでの強力な表現を得るための十分な条件なのかは不明である。こうした説明は、トリプレットに基づく距離学習の観点から、最近の手法の成功をうまく説明することができる。
NA
[752] Image-guided Neural Object Rendering (2020)
Justus Thies, Michael Zollhofer, Christian Theobalt, Marc Stamminger, Matthias Nießner
ICLR 2020
U. Erlangen-Nuremberg
画像に基づくレンダリングとGANに基づく画像の合成を組み合わせたアプローチ。視点依存の画像から、差分を取り出して、新しい視点に(古典的な画像に基づくレンダリングで)描きこむ。これをエンコーダー・デコーダー(U-NetをベースにしたものでEffectNetと呼ぶ)を通してひとつの画像にし、CompositionNetで敵対的コストを用いてきれいな画像にする。
NA
[753] Measuring Compositional Generalization: A Comprehensive Method on Realistic Data (2020)
Daniel Keysers, Nathanael Schärli, Nathan Scales, Hylke Buisman, Daniel Furrer, Sergii Kashubin, Nikola Momchev, Danila Sinopalnikov, Lukasz Stafiniak, Tibor Tihon, Dmitry Tsarkov, Xiao Wang, Marc van Zee & Olivier Bousquet
ICLR 2020
Google Research, Brain Team
Compositional Freebase Questions(CFQ)というデータセットの紹介。自然言語の構成性を計るために、訓練セットとテストセットに共通してアトム(事実単体)が含まれるものの、アトム(atoms)を組み合わせた複合体(compounds)に関しては、訓練とテストで異なるべきという指針に基づいて作られている。途中で、自然言語からSPAQLのクエリにする途中に論理式を使っている。Freebaseを使って約24万の質問-答えのペア。
NA
[754] Reinforcement Learning with Competitive Ensembles of Information-Constrained Primitives (2020)
Anirudh Goyal, Shagun Sodhani, Jonathan Binas, Xue Bin Peng, Sergey Levine, Yoshua Bengio
ICLR 2020
MILA, UCB
面白い。階層的強化学習のように、プリミティブがあって中央集権にメタ方策で組み合わせるのではなく、分散的にやる。それぞれのプリミティブが現在の状態から行動を決定するのにどのくらいの情報が必要かを選択し、最大の情報を提供したものが実際に世界の中で行動する。プリミティブは、状態の特定の側面に注目してできるだけ少ない情報を使うように情報ボトルネックにより正則化されており、また、報酬はグローバルな決定に対しての貢献で決まる。これが競争と集中につながる。
2Dマルチタスクの環境のMinigridというので、ピックアップとかアンロックとかのタスクで実験。
NA
[755] Dynamics-Aware Unsupervised Discovery of Skills
ICLR 2020, arxiv 2019
Archit Sharma, Shixiang Gu, Sergey Levine, Vikash Kumar, Karol Hausman
Google Brain
力学を考慮したスキルの発見(Dynamics-Aware Discovery of Skills, DADS)。教師なしで、予測可能な行動を見つけ、同時に力学を学習する。ゼロショットのプランニングが、従来のモデルベースの強化学習や、モデルフリーのゴールに条件付けられた強化学習を大きく上回ることを示す。
NA
[756] Watch, Try, Learn: Meta-Learning from Demonstrations and Reward (2020)
Allan Zhou, Eric Jang, Daniel Kappler, Alex Herzog, Mohi Khansari, PaulWohlhart, Yunfei Bai, Mrinal Kalakrishnan, Sergey Levine, Chelsea Finn
2019, ICLR2020
Google Brain, X, UCV
メタ模倣学習。
最初のデモンストレーションから方策を推定し1回のトライアルをする部分と、それ以降、リトライアルをする部分を分け、2つそれぞれで学習する。両方を混ぜるより、「見てトライする」のと「さらにトライして学習する」のを別々に学習したほうがいいらしい。
画像が入ってCNNで処理すると同時に、デモンストレーションの動画から、デモのエンベディングを作り、文脈エンベディングとする。両方をconcatし、グリッパーのポジションや指の角度などに変換する。
NA
[757] RTFM: Generalising to New Environment Dynamics via Reading (2020)
Victor Zhong, TIm Rocktaschel, Edward Grefenstette
ICLR 2020
U. Washington, FAIR, UCL
言語での説明と言語でのゴールが与えられて、グリッドワールドにおけるマルチエージェントの戦闘ゲームで良い方策を学習する。説明は「これとこれは同じチーム」「この敵はこの武器に弱い」とか。ゴールは「こいつを倒せ」とか。Read to Fight Monsters (RTFM)を呼ばれる問題設定。
言語的特徴と視覚的特徴を組み合わせるFiLM^2層(Bidirectional Feature-wise Linear Modulation)という層を使って、言語での説明とゴール、視覚から方策を出力するネットワーク(Txt2πと呼ぶ)を構成する。
NA
[758] Detecting and Diagnosing Adversarial Images with Class-Conditional Capsule Reconstructions (2020)
Yao Qin, Nicholas Frosst, Sara Sabour, Colin Raffel, Garrison Cottrell, Geoffrey Hinton
ICLR 2020
UCSD, Google Brain
敵対的攻撃から防御するために、再構成エラーを使う。再構成エラーが大きいものは、攻撃されていると検知する。CNN+再構成の手法に比べ、カプセルネット+再構成の手法のほうが検知できる。さらに、攻撃方法を改良し、ラベルを変える+再構成エラーを下げるというふうにしても、カプセルネットのほうが検知できる。カプセルネットのほうが人間の視覚に近いからではないかという説明。
NA
[759] Compositional languages emerge in a neural iterated learning model (2020)
Yi Ren, Shangmin Guo, Matthieu Labeau, Shay B. Cohen, Simon Kirby
ICLR 2020
U. Edinburgh, U. Cambridge, LTCI
エージェントが言語ゲームをする。見たものの近さとメッセージの近さが相関しているほうがトポロジカル類似度が高いという。トポロジカル類似度が高いほど、話すエージェントの学習速度は上がり、また、聞くエージェントがより多くの概念を少ないサンプルで聞くようになるという仮説を証明する。
NA
[760] Vid2Game: Controllable Characters Extracted from Real-World Videos (2020)
Oran Gafni Lior Wolf Yaniv Taigman
ICLR 2020
FAIR
動画から人を抜き出してゲームのようにコントロール可能にする。Pose2Pose生成器。次のポーズを作る。Pose2Frameネットワーク。マスクしたり背景と重ねたりする。
NA
[761] Physics-as-Inverse-Graphics: Unsupervised Physical Parameter Estimation from Video (2020)
Miguel Jaques, Michael Burke, Timothy Hospedales
ICLR 2020
U. Edinburgh
ボールの転がる、重力で引き寄せられるなどの予測。画像からU-netで物体検出し、オイラー積分の物理エンジンに入れる。(質量とか重力とかはパラメータ。)で、デコーダで画像に戻し、ロスを取る。
NA
[762] Network Deconvolution (2020)
Chengxi Ye, Matthew Evanusa, Hua He, Anton Mitrokhin, Tom Goldstein, James A. Yorkey, Cornelia Fermüller, Yiannis Aloimonos
ICLR 2020
U. Maryland College Park, USA
画像のぼかし(相関を入れる)の反対がdeconvolutionで相関を取り除く。これを画像に対して行うと、エッジだけがきれいに浮き出たような画像になる。視覚野のニューロンの中心/周辺構造と同じらしい。相関行列の逆行列を近似的に計算する。計算コストはそれほど大きくないようだ。見方によっては、バッチ正規化(相関を取る)、SGDとも関連するとのことで、比較をしている。
NA
[763] Deep Lagrangian Networks: Using Physics as Model Prior for Deep Learning (2019)
Michael Lutter, Christian Ritter & Jan Peters
ICLR2019
Technische Universitat Darmstadt, ドイツ
運動方程式には、ニュートン形式、ハミルトン形式、ラグランジュ形式がある。ここではラグランジュ形式を用いる。L(ラグランジアン)=T(運動エネルギー)-U(位置エネルギー)。あとLに関しての微分方程式から構成される。
ロボットの目的とする関節の位置、速度、加速度が指定されたときに、ここからトルクに直す逆モデルを作る。現在の位置、速度、加速度から、ラグランジアンの対角成分や下三角行列を出すニューラルネットワークを作り、そこからラグランジアンを計算し、トルクを計算する。
ここまでやるなら普通に計算してPD制御でいい気もするが、ニューラルネットワークのところで、いろいろな誤差を吸収できるということ?
NA
[764] Meta-learning curiosity algorithms (2020)
Ferran Alet, Martin F. Schneider, Tomas Lozano-Perez & Leslie Pack Kaelbling
2020
MIT
強化学習の外側にループをつけて、好奇心のアルゴリズムを探索する。計算グラフのようなものを使って近傍探索。アクション予測(アクションの予測が外れると好奇心)、サイクルコンシスタンシー(サイクルGANのようなもの)の2種類を発見。人間がデザインするものにはあまり使われない。
NA
[765] A Survey of Deep Learning for Scientific Discovery (2020)
Maithra Raghu, Eric Schmidt
2020
Google, Cornel U.
エリック・シュミットが著者に。科学的発見のためのとあるが、基本は、初心者のための分野全体の大まかな紹介とガイド。
NA
[766] Adversarial Policies: Attacking Deep Reinforcement Learning (2020)
Adam Gleave, Michael Dennis, Cody Wild, Neel Kant, Sergey Levine, Stuart Russel
2020
UCB
アメフトとか相撲とかのように、邪魔をする人がいてそれでもゴールを達成しようとする。敵対的な方策をもつエージェントを作って、それでもゴールを達成するような方策を見つける。犠牲者(victim)と敵のゼロサムゲームだが、犠牲者のほうは敵に対して適応的な方策を学習するようにはなってないようだ。
NA
[767] The Creation and Detection of Deepfakes: A Survey (2020)
Yisroel Mirsky, Wenke Lee
2020
Georgia Tech.
ディープフェイクのかなり徹底的なサーベイ。内容も充実している。再現、置き換え、特定の属性の強化、合成などがある。手法はRNN, Encoder-Decoder, Vanilla GAN, pix2pix, CycleGANが基本。さまざまな研究の用いている手法やネットワークアーキテクチャを紹介している。
NA
[768] Designing Network Design Spaces (2020)
Ilija Radosavovic, Raj Prateek Kosaraju, Ross Girshick, Kaiming He, Piotr Dollar
2020
FAIR
個別のネットワークをデザインするのではなく、ネットワークのデザイン空間自体をデザインする。低次元のシンプルなデザイン空間に至ることができ、このようなネットワークをRegNetと呼ぶ。良いネットワークの幅と深さは、量子化された線形関数で説明できる。元の自由度の高いネットワークをAnyNetと言い、人間も介在して次元を減らしている。
NA
[769] Agent57: Outperforming the human Atari benchmark (2020)
Adria Puigdomenech Badia, Bilal Piot, Steven Kpturowski, Pablo Sprechmann, Alex Vitvitskyi, Daniel Guo, Charles Blundell
2020
DeepMind
Atariの57個のゲーム全てで人間を上回る。これまでは、51個(MuZero, 2019)、52個(R2D2, 2018)だった。より長い信用割当、探索と開発のトレードオフの工夫による。細かくは、i) 状態行動の価値関数に異なるパラメータを使う、ii) 新規性を好むように動的なメタコントローラを使う、iii) より長期の経時誤差逆伝搬を使うということで達成している。Neger Give Upエージェントと名付ける。
NA
[770] Learning Agile Robotic Locomotion Skills by Imitating Animals (2020)
Xue Bin Peng, Erwin Coumans, Tingnan Zhang, Tsang-Wei Lee, Jie Tan, Sergey Levine
2020
Google Research, UCB
イヌのようなLaikagoロボット(18自由度)を、実際のイヌにつけてモーションキャプチャから模倣学習する。報酬関数に、関節の近さ、速度の近さなど、手本となる動きに近づけるような項を加えておく。ドメイン適応を使う。
NA
[771] AutoML-Zero: Evolving Machine Learning Algorithms From Scratch (2020)
Esteban Real, Chen Liang, David R. So, Quoc V. Le
2020
Google Brain
MLアルゴリズム全体を基本的なオペレーションの組み合わせとして発見する。ある種のGP(遺伝的プログラミング。)人口をコピーしたりミューテーションしたりする。MLアルゴリズムを、セットアップ、予測、学習という3つの要素関数からなるものとし、空のファンクションから線形な回帰、ニュラルネットワーク、勾配降下、乗法的な相互作用、重み平均、正規化勾配などを進化させた。CIFAR10データセットで実験し、2層のフルコネクトの手でデザインしたものより20回中13回の実験で良くなった。
NA
[772] Suphx: Mastering Mahjong with Deep Reinforcement Learning (2020)
Junjie Li, Sotetsu Koyamada, Qiwei Ye, Guoquing Liu, Chao Wnag, Ruihan Yang, Li Zhao, Tao Qin, Tie-Yan Liu, Hsiao-Wuen Hon
2020
MSRA, Kyoto U., U. Science and Technology of China, Tsinghua U., Nankai U.
天鳳で10段、99.99%以上より強いモデル。捨て牌、ポンやチー、リーチなどの複数のモデルを作っている。34次元4チャンネルでエンコーディング、50層以上のResNet CNNのモデル。分散強化学習を使っているのと、半荘の勝ち点を各ラウンドの報酬に反映している。
NA
[773] State of the Art on Neural Rendering
2020
古典的なレンダリングには、ラスタライゼーション、レイトレーシングがある。また、画像から物体の幾何形状や反射特性、光源分布を推定するインバースレンダリングもある。(ニューラルレンダリングに近い。)
ニューラルレンダリングの要素としては、制御(何をコントロールし、何に条件付けるか)、CGモジュール(コンピュータグラフィックのどの要素を組み合わせるか)、制御が暗黙的か明示的か、マルチモーダルな合成、汎化性能など。
応用として、1. 意味的な写真の合成と操作、2. 新しい視点からの物体とシーンの合成(ニューラル画像ベースのレンダリング、ニューラルレンダリング、複数画像からの新規視点の合成、ニューラルシーン表現とレンダリング(GQNはここ)、ボクセルに基づく新規の視点の合成、暗黙的な関数による方法)、3. 自由な視点の動画、4. 光線を当て直すのを学習する、5.顔の再現、体の再現など。
NA
[774] Generative Adversarial Networks are special cases of Artificial Curiosity (1990) and also closely related to Predictability Minimization (1991) (2020)
Jurgen Schmidhuber
2020
Neural Networks
題名通りの主張。minmaxの仕組みがNNの研究の中でさまざまに行われてきたこと、2014のGAN論文に対する批判など。
NA
[775] Efficient Adaptation for End-to-End Vision-Based Robotic Manipulation (2020)
Ryan Julianyz, Benjamin Swansony, Gaurav S. Sukhatmez, Sergey Levineyx, Chelsea Finny{ and Karol Hausman
2020
Google Research, USC, UCB, Stanford U.
1000個の多様な物体に対して、58万回の把持。Q関数のネットワークをオフラインで学習する。次に、このネットワークをオンラインで、同じ物体群に対して、2万8000回の実際の把持を行う。これで、ベースポリシーを作る。96%の見たことのない物体を把持できる。特に6つの物体に焦点をあてる。(これらの把持のベースポリシーは86%。)
ここに、背景をチェッカーボードにする、明るいハロゲンライトをつける、グリッパーを1cm伸ばす、グリッパーの位置を10cmずらす、透明なボトルに変える、という6つを試す。するとパフォーマンスがぐっと落ちる。
次に、ベースのQ関数で初期化し、ベースデータとターゲットデータを半々で混ぜて、ターゲットのQ関数を学習する。これで、チェッカーボードは50%から90%に、グリッパーの位置は43%が98%になど、劇的に変わる。
ImageNetの転移学習のようなもので、当たり前のように思うけど、今までできてなかった。
NA
[776] Improved Residual Networks for Image and Video Recognition (2020)
Ionut Cosmin Duta, Li Liu, Fan Zhu, and Ling SHao
2020
IIAI, UAE
iResNetというResNetの改良版。Residualブロックの、conv, BN, RELUの並びを、序盤、中盤、終盤で変える、バイパスのショートカットにMaxPoolを入れる、1x1チャネルの多用を3x3にするなど。若干、ヒューリスティックっぽい。
NA
[777] ResNeSt: Split-Attention Networks (2020)
Hang Zhang, Chongruo Wu, Zhongyue Zhang, Yi Zhu, Haibin Lin, Zhi Zhang, Yue Sun, Tong He, Jonas Mueller, R. Manmatha, Mu Li, and Alexander Smola
2020
Amazon, UC Davis
スプリットアテンションのブロックを使ったResNetの改良。SE-Net (Squeeze-and-Excitation Net)も、スプリットアテンションを使っているが、チャネルをいくつかのグループに分け、それぞれにスプリットアテンションをしている。
ImageNetのtop-1で81.13%、ダウンストリームのタスクでも良い成績。
NA
[778] Model-Based Meta-Reinforcement Learning for Flight with Suspended Payloads (2020)
Suneel Belkhaley, Rachel Liy, Gregory Kahny, Rowan McAllistery, Roberto Calandraz, Sergey Leviney
2020
UCB, FAIR
ドローン(クアドコプター)で、荷物を積んで運ぶ。ダイナミクスが変わるので、メタ学習。
NA
[779] YOLOv4: Optimal Speed and Accuracy of Object Detection
2020
Alexey Bochkovskiy, Chien-Yao Wang, Hong-Yuan Mark Liao
中央研究院、台湾
YOLOの著者と違ってて、そもそもいいの?という疑問が。オリジナルの著者はこの研究をやめているらしい。(軍事利用等のため。)内容としては、並列化している。細かい工夫の積み重ね。ちょっと評価を待ったほうが良さそう。
NA
[780] Classification with quantum neural networks on near term processors
2018
NA
[781] Quantum convolutional neural networks
2019
NA
[782] Barren plateaus in quantum neural network training landscapes
2018
Nature Communications
NA
[783] Universal discriminative quantum neural networks
2018
NA
[784] Quantum advantage with shallow circuits
2018
Science
NA
[785] Quantum supremacy using a programmable superconducting processor (2019)
Frank arute et al.
2019
Google, UM amhearst, NASA, Caltech, UC Santa Barbara and so on
Sycamoreプロセッサーは、200秒で量子回路を100万回サンプルできるが、これは、通常のスパコンであれば1万年かかる。54 transmon キュービットの2次元のアレー。1つのキュービットは隣接する4つと結びついている。
NA
[786] A comprehensive survey on graph neural networks
2019
Ryoma Sato
京大
グラフニューラルネットワークの表現力のサーベイ。2つの問題設定を扱う。グラフとそのうちの1つのノードを入力し、そのノードのラベルを出力する、ノード分類問題。グラフを入力し、グラフのラベルを出力するグラフ分類問題。
GNNは、特定の2つのグラフを見分けられないことを示す。GNNが解ける/解けない問題のクラスを明らかにする。
NA
[787] Graph neural networks: A review of methods and applications
2018
NA
[788] Sequential Neural Processes (2019)
Gautam Singh, Jaesik Yoon, Yongsung Son, Sungjin Ahn
2019
Rutgers U., SAP, ETRI
Temporal GQN。時間方向に拡張。State-spaceモデルとGQNを組み合わせる。z_tが以前のz_>tに依存しているというモデル化。
NA
[789] The neural and cognitive architecture for learning from a small sample (2019)
Aurelio Cortese, Benedetto De Martino and Mitsuo Kawato
Neurobiology, 2019
ATR, UCL, RIKEN
AIはすごい成果を出しているが、脳の能力に比べるとまだまだである。何が足りないか。汎化はそのひとつ。脳は難しい問題を直接解くのではなく、新しくてトラクタブルな問題に変換している。ここでは、高次の認知機能が、強化学習と相互作用し、探索空間の自由度を減らす働きをしていることを述べる。
RLの状態を見つけるのに、並列なループで探索する。
NA
[790] One-Shot Visual Imitation Learning via Meta-Learning (2017)
Chelsea Finn, Tianhe Yu, Tianhao Zhang, Pieter Abbeel, Sergey Levine
2017
UCB, OpenAI
メタ学習と模倣学習を結びつけ、メタ模倣学習(MIL)を提案する。ひとつのデモンストレーションだけで、新しいスキルを効率的に学習することができる。MIL with MAMLも提案。
NA
[791] Task-embedded control networks for few-shot imitation learning (2018)
Stephen James, Michael Bloesch, Andrew J. Davison
2018
TecNets (タスク埋め込みコントロールネットワーク)。ロボットにタスクを学習させるために別のタスクの知識を使うメタ学習は重要だが、多くのタスクにスケールしなかった。そこで、メトリック学習の考え方を使って、タスク埋め込みを作り、新しいタスクをデモンストレーションから学習できるようにする。
NA
[792] Controllable Invariance through Adversarial Feature Learning (2018)
Qizhe Xie, Zihang Dai, Yulun Du, Eduard Hovy, Graham Neubig
2018
CMU
敵対的不変量特徴学習(Adversarial Invariant Feature Learning)。エンコーダ、デコーダ(望ましくない特徴を取り出す)、プリディクタ(通常の予測精度)の3つが競う。
NA
[793] DeepFont: Identify Your Font from An Image (2015)
Zhangyang Wang, Jianchao Yang, Hailin Jin, Eli Shechtman, Aseem Agarwala, Jonathan Brandt, Thomas S. Huang
2015
U. Illinois Urbana-Champaign, Adobe, Snapchat, Google
フォントに認識と生成。CNN+積層コンボリューショナルオートエンコーダ。
NA
[794] The Face of Art: Landmark Detection and Geometric Style in Portraits (2019)
Jordan Yaniv, Yael Newman, Ariel SHamir
2019
Tel Aviv U.
肖像画を対象に、ランドマークの検出を行う。スタイル転移を行う。
NA
[795] A Survey on The Expressive Power of Graph Neural Networks (2020)
Ryoma Sato
2020
Kyoto U.
NA
[796] Lagrangian Neural Networks (2020)
Miles Cranmer, Sam Greydanus, Stephan Hoyer, Peter Battaglia, David Spergele, Shirley Ho
2020
Princeton, Oregon Stete, Google Research, Deep Mind, Flatiron Inst.
ニューラルネットワークを使った任意のラグランジアンをパラメタライズする。二重振り子等で実験。位置と運動量の保存の法則等にうまく対応できる。
NA
[797] TensorFlow Quantum: A Software Framework for Quantum Machine Learning
Michael Broughton, Guillaume Verdon, Trevor MsCourt et al.
Google Research worldwide, U. Waterloo, and so on
2020
量子データ、あるいは古典的データに対して、ハイブリッドな量子/古典モデルを素早くプロトタイピングするためのオープンソースのライブラリ。なかはc++の実装。
量子回路を指定して、量子データを生成する。量子モデルを評価する。古典モデルを評価する。コスト関数を評価するという流れ。
NA
[798] Learning to Simulate Complex Physics with Graph Networks (2020)
Alvaro Sanchez-Gonzalez, Jonathan Godwin, Tobias Pfaff, Rex Ying, Jure Leskovec
2020
DeepMind, Stanford
粒子シミュレータを学習する。GNS(グラフ・ネットワークベース・シミューレータ)。エンコーダ、グラフ、デコーダの構成で、時間遷移はグラフ上でのメッセージパッシングで行う。すごくいいと思う。
keyword: ToRead
NA
[799] Graph Networks as Learnable Physics Engines for Inference and Control (2018)
Alvaro Sanchez-Gonzalez, Nicolas Heess, Jost Tobias Springenberg, Josh Merel, Martin Riedmiller, Raia Hadsell, Peter Battaglia
ICML 2018
DeepMind
グラフネットワークを使って、シミュレータ上の振り子やカートポール、チーター、あと、実際のロボットなどを動かす。人間が動かした動きを訓練データにしてモデル化する。あるいは強化学習(DDPGとか)のなかで使う。
NA
[800] Learning Neural Causal Models from Unknown Interventions (2019)
Nan Rosemanry Ke, Olexa Bilaniuk, Anirudh Goyal, Stefan Bauer, Hugo Larochelle, Chris Pal, Yoshua Bengio
2019
MILA, Element AI, Google
メタ学習の新しい因果フレームワークを提案する。変数とその親との関係がニューラルネットワークでモデル化される。介入的な分布がひとつの変数に起こるとき、あるいはそれらの介入がひとつのメタ例になるときの設定を調べる。
NA
[801] Protecting World Leaders Against Deep Fakes
CVPR2019
NA
[802] Weight Agnostic Neural Networks
2019
Adam Gaier, David Ha
David Haさんの論文。生得的な構造で性能を発揮するネットワーク。
NA
[803] Manipulation by Feel: Touch-Based Control with Deep Predictive Models (2019)
Stephen Tian, Frederik Ebert, Dinesh Jayaraman, Mayuh Mudigonda, Chelsea Finn, Roberto Calandra, Sergey Levine
2019
UCB, FAIR
タッチの感覚は器用なロボットのマニピュレーションに重要だが、連続的な把持でないマニピュレーションのための触覚を開発するのは難しい。ゲルサイトのタイプの触覚センサーを使って、ボールを動かしたり、アナログのジョイスティックを動かしたり、20面のサイコロを動かしたりする。ニューラルネットワーク+MPCで目的の状態を達成するようにプランニング。
NA
[804] Ab-Initio Solution of the Many-Electron Schrödinger Equation with Deep Neural Networks (2019)
David Pfau, James S. Spencer, Alexander G. de G. Matthews, W. M. C. Foulkes
2019
DeepMind
物理的な制約を組み込んだNNとのこと。
6 citation
[805] Z-Forcing: Training Stochastic Recurrent Networks (2017)
Anirudh Goyal, Alessandro Sordoni, Marc-Alexandre Cote, Nan Rosemary Ke, Yoshua Bengio
NIPS2017
MILA, U. Montreal, Microsoft Maluuba
STORN, VRNN, SRNNなどと近い確率的なRNNのモデル。潜在変数(確率変数)zから隠れ状態hが決まり、出力xが決まる。潜在変数zに、過去のRNNの状態を復元するように強制する副次コストをつける工夫をするところが特徴。
NA
[806] Learning Stochastic Recurrent Networks (2015)
Justin Bayer, Christian Osendorfer
ICLR2015
Technische Universitat Munchen, Leibniz Universitat Hannovor
STORNという確率的なRNN。SGVB(Stochastic Gradient Variational Bayes)とRNNを組み合わせたモデル。潜在変数を入れる。
NA
[807] Capsules for object segmentation (2018)
Rodney LaLonde and Ulas Bagci
2018
University of Central Florida
カプセルネットワークを使った物体セグメンテーション。デコンボリューションカプセルというのを使う。子カプセルが近接する親カプセルにだけルーティングされ、ルーティングのところも変換行列が同じカプセルタイプで共有されるように修正するなど。ヒントン先生が一般化しているのに、またpriorを入れて良くしている印象。
NA
[808] Information Generation as a Functional Basis of Consciousness (2019)
Ryota Kanai Acer Chang Yen Yu Ildefons de Abril Martin Biehl Nicholas Guttenberg
2019
Araya Inc.
金井さんの論文。考え方はほぼ一緒で面白い。counterfactualな表現を、実際のセンサーからではなく、深層モデルで生成しているということ。統合理論等、関連の情報との紐付けも分かりやすく良い。VAEとPredictive Codingを中心に説明されている。
情報を生成していると言ってしまっていいのか(デコーダーに学習されてるので)。
NA
[809] Unsupervised Generative 3D Shape Learning from Natural Images (2019)
Attila Szabo, Givi Meishvili, Paolo Favaro
2019
U. Bern, Switzerland
3Dの画像を描くGAN。3Dを作るところとレンダリングで2つのパートに分けている。
NA
[810] Meta-World: A Benchmark and Evaluation for Multi-Task and Meta Reinforcement Learning (2019)
Tianhe Yu, Deirdre Quillen, Zhanpeng He, Ryan Julianm Karol Hausman, Chelsea Finn, Sergey Levine
2019
Stanford U., UCB, Columbia U., USC, Google
シミュレーション上でのオープンソースの50個のロボットの操作タスクベンチマーク。マルチタスクRL、あるいはメタRLのため。TRPOとかActor-CriticとかMAML等6つの手法でのベースライン評価。それぞれのタスクだと学習できるがまとめてとなると悪くなるので、評価セットとしてはとても良さそう。
19 citation
[811] Vision-and-Language Navigation: Interpreting Visually-Grounded Navigation Instructions in Real Environments (2019)
Peter Anderson, Qi Wu, Damien Teney, Jake Bruce, Mark Johnson, Niko Sunderhauf, Ian Reid, Stephen Gould, Anton van den Hengel
CVPR2018 top30
Australian National U., U. Adelaide, Queensland U. o T., Macquarie U.
Matterport3Dシミュレータというのを提案する。大規模な強化学習の学習環境用。言語によるナビゲーションは、VQAと構造は同じであるが、ちゃんと画像が生成できないといけない。
同様のものに、ViZDoom, DeepMind Lab, AI2-THOR、新しいものとして、HoME, House3D, MINOS, CHALET, Gibson Envなどがある。
あと、R2R(Room-to-Room)データセットも提供する。
NA
[812] A Divergence Minimization Perspective on Imitation Learning Methods (2019)
Seyed Kamyar Seyed Ghasemipour, Richard Zemel, Shixiang Gu
CoRL2019
U. Toronto, Google Brain
よく使われる模倣学習には、行動クローニング(BC)と、逆強化学習(IRL)がある。これらの比較はあまり統一的に議論されていない。本論文では、発散の最小化をもとに、模倣アルゴリズムの統一的な確率的見通しを提案する。f-MAXという手法を提案するが、GAILやAILなどのプライアー逆強化学習と関連付ける。この枠組で、行動クローニングと逆強化学習のアプローチの差がうまく示せる。
NA
[813] Language-guided Semantic Mapping and Mobile Manipulation in Partially Observable Environments
2019
Siddharth Patki, Ethan Fahnestock, Thomas M. Howard, Matthew R. Walter
U. Rochester, TTI Chicago
シンボルグラウンディングのために欠けているのは、環境のモデルを必要とすることと、世界の表現についてフラットで必要以上に詳細なものを使おうとすること。言語を、位相的、測度的、あるいは意味的な環境の性質の「センサー」と捉え、部分的に観測する方法が最近研究されている。しかし、詳細すぎるマップでこれをやるとスケールしない。
本論文では、セマンティックマップ上でのコンパクトな分布を維持するためのタスクに応じた適応的な知覚を学習するフレームワークを提案する。
NA
[814] 3D Point Capsule Networks (2019)
Yongheng Zhao, Tolga Bairdal, Haowen Deng, Federico Tombari
2019
TU Munchen, U. Padova, Siemens
カプセルネットワークを使って、ポイントクラウドからオートエンコーダ的に潜在表現になおして、それを再構成する。潜在表現は潜在カプセルと呼ぶ。エンコーダ、デコーダで少し工夫が必要。エンコーダのほうは割と普通のCNNになっている。
336 citation
[815] Deep Fragment Embeddings for Bidirectional Image Sentence Mapping (2014)
Andrej Karpathy, Armand Joulin and Fei Fei Li
NIPS2014
Stanford
画像と自然言語のデータのマルチモーダルなエンベディングによる画像と文の双方向の検索のモデルを提案する。画像と文を共通のエンベディング空間に直接マップする以前のモデルと違って、このモデルは画像のフラグメント(オブジェクト)、文のフラグメント(依存木の関係)を共通の空間にエンベッドするより細かいレベルのモデルである。画像のほうはCNN、文のほうは構文木の関係をエンベッドしたもの。
(文の要素と画像の要素を対応付ける。対応を取るような行列を作る。)
NA
[816] Dataset Distillation (2018)
Tongzhou Wang, Jun-Yan Zhu, Antonio Torralba, Alexei A. Efros
2018
FAIR, MIT CSAIL, UCB
データセット蒸留。MNISTだと10個のデータ(1クラス1データ)で学習できるようにしてしまう。それでほとんどパフォーマンスが変わらない。データセットの側を勾配をとって動かしていく。
NA
[817] Unsupervised Domain Adaptation through Self-Supervision (2019)
Yu Sun, Eric Tzeng, Trevor Darrell, Alexei A. Efros
2019
回転(0度、90度、180度、270度)、フリップ(上下逆さまかどうか)、位置(パッチがどこから来たか)を補助問題として、共通の素性エンコーダを獲得する。ターゲットとソース領域の両方でこれをして、そのアラインメントを獲得し、ターゲット領域では教師なしデータだけでドメイン適応をする。
NA
[818] Prototypical networks for few-shot learning (2017)
Jake Snell, Kevin Swersky, Richard S. Zemel
2017
U. Toronto, Twitter, U. Toronto
fewショット学習のための、典型的なネットワーク。クラスごとに少ない数のサンプルしかなくても学習する。プロトタイプ表現からの距離で分類を行うための、測度空間を学習する。
引用が500以上。
NA
[819] Towards End-to-end Spoken Language Understanding (2018)
Dmitriy Serdyuk, Yongqiang Wang, Christian Fuegen, Anuj Kumar, Baiyang Liu, Yoshua Bengio
IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 2018
Facebook, U. Montreal
スピーチから、ドメインクラス、あるいは意図クラスへの分類を行う。その先のスロット埋めは今回は対象にしていない。双方向のGRU+全結合層。
NA
[820] ChatPainter: Improving Text to Image Generation using Dialogue (2018)
Shikhar Sharma, Dendi Suhubdy, Vincent Michalski, Samira Ebrahimi Kahou, Yoshua Bengio
ICLR2018
MSR, U. Montreal, MILA
MS COCOのデータだけでは、キャプションから画像を生成するのに十分ではない。そこで、VisDialというデータセットを併用する。例えば、Q: 女の人は板の上に立っている? A: いえ、そのそばにいます、のようなデータセット。キャプションとダイアローグと両方を入れて、StanckGan(2段階)で生成。
NA
[821] Unsupervised State Representation Learning in Atari (2019)
Ankesh Anand, Evan Racah, Sherjil Ozair, Yoshua Bengio, Marc-Alexandre Côté, R. Devon Hjelm
NeurIPS2019
MSR, MILA
時間的あるいは空間的に顕現な特徴の相互情報量を最大化することによって状態表現を学習する。また、Atari2600ゲームに基づくベンチマークを提案し、どのくらい状態変数を捉えているかという表現の良さを評価する。
NA
[822] Learning Dynamics Model in Reinforcement Learning by Incorporating the Long Term Future (2019)
Nan Rosemary Ke, Amanpreet Singh, Ahmed Touati, Anirudh Goyal, Yoshua Bengio, Devi Parikh, Dhruv Batra
2019
MILA, FAIR, Polytechnique Montreal, CIFAR
環境のダイナミクスをLSTMで学習するのだが、Z-forcingという技を使って、潜在変数が未来の情報をエンコードしやすくする。これを使ってプランニングしたり、モデルから学習したりする。Mujoco, カーレース、BabyAIピックアップタスクなどで実験。
NA
[823] Visualizing the Consequences of Climate Change Using Cycle-Consistent Adversarial Networks (2019)
Victor Schmidt, Alexandra Luccioni, S. Karthik Mukkavilli, Narmada M. Balasooriya, Kris Sankaran, Jennifer T. Chayes, Yoshua Bengio
2019
MILA, Sonscient AI labss, MSR New England
気候変動の影響を示すために、サイクルGANを使ってGoogle Street Viewの画像を洪水が起こったものに変換する。洪水画像データセットは、500枚の家とそれに対応する洪水が起こったときの500枚の画像。
NA
[824] ToyArchitecture: Unsupervised Learning of Interpretable Models of the World (2019)
Jaroslav Vitku, Petr Dluhos, Joseph Davidson, Matej Nikl, Simon Andersson, Premysl Paska, Jan Sinkora, Petr Hlubucek, Martin Stránský, Martin Hyben, Martin Poliak, Jan Feyereisl, Marek Rosa
2019
GoodAI
GoodAIっぽい論文。知的エージェントの全体感。環境のモデル化、時空間の階層構造。エキスパートがHMMを構成し、生成器となる。このエキスパートがサブシンボルとなる。というような話。漠然としている。
NA
[825] State-Reification Networks: Improving Generalization by Modeling the Distribution of Hidden Representations (2019)
Alex Lamb, Jonathan Binas, Anirudh Goyal, Sandeep Subramanian, Ioannis Mitliagkas, Denis Kazakov, Yoshua Bengio, Michael C. Mozer
ICML2019
U. Montreal, MILA, U. Colorado, Boulder, Google
訓練データにおける隠れ状態の分布をモデル化し、テスト時に観測された隠れ状態をこの分布上に射影する、状態具象化という方法を提案する。もしネットワークが、隠れ空間のいつもの多様体のいれば、それに続く層も適切に応答するように学習されているはずである。(RNNとかが対象)
NA
[826] Metacognition facilitates the exploitation of unconscious brain states (2019)
Aurelio Cortese, Hakwan Lau, Mitsuo Kawato
2019
ATR, UCLA
ニューロンの活動を確率的に表した潜在的な高次の情報から、どのように報酬を最大化する選択をするか。
NA
[827] Learning by Abstraction: The Neural State Machine (2019)
Drew A. Hudson, Christopher D. Manning
2019
Stanford U.
ニューラルと記号をつなぐ。画像から初めて、グラフを作る。意味ネットワークのような感じ。これをニューラル状態マシンと呼ぶ。VQA, GQA等で評価。
マニングさんなので気持ちは分かるが、なんか違う。
NA
[828] Neural Consciousness Flow (2019)
Xiaoran Xu, Wei Feng, Zhiqing Sun, Zhi-Hong Deng
2019
Hulu LLC, Beijing, Peking U.
意識プライアに刺激を受けて作ったモデル。無意識フロー層、意識フロー層、注意フロー層の3つから成る。グラフニューラルネットワークで実装。実験している。
5 citation
[829] Generative Models of Visually Grounded Imagination
Shanmukha Ramakrishna Vedantam, Ian Fischer, Jonathan Huang, Kevin Murphy
ICLR2018 poster
Georgia Tech, Google
視覚的にグランドされた想像。ピンクの髪の男をすぐに思い浮かぶ。変分オートエンコーダでこのような想像をする仕組みを提案する。「エキスパートの積」推論ネットワークが特徴。JMVAEも引かれている。
24 citation
[830] Understanding Deep Neural Networks with Rectified Linear Units
Raman Arora, Amitabh Basu, Poorya Mianjy, Anirbit Mukherjee
ICLR2018 poster
25 citation
[831] Word translation without parallel data
Guillaume Lample,, Marc'Aurelio Ranzato,, Hervé Jégou
ICLR2018 poster
9 citation
[832] Meta-Learning and Universality: Deep Representations and Gradient Descent can Approximate any Learning Algorithm
Chelsea Finn, Sergey Levine
ICLR2018 poster
UCB
MAMLと勾配降下で万能近似になるので良いということ。
5 citation
[833] Stochastic Variational Video Prediction
Mohammad Babaeizadeh, Chelsea Finn, Dumitru Erhan, Roy H Campbell, Sergey Levine
ICLR2018 poster
NA
[834] Meta Learning Shared Hirarchies
Kevin Frans, Jonathan Ho, Xi Chen, Pieter Abbeel, John Schulman
ICLR2018 poster
OpenAI, UCB
MLSH(階層共有メタ学習)。マスターポリシーがあって、それが、サブポリシーのどれをアクティベートするのかを選ぶ。
0 citation
[835] Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent
Zhilin Yang, Saizheng Zhang, Jack Urbanek, Will Feng, Alexander Miller, Arthur Szlam, Douwe Kiela, Jason Weston
ICLR2018 poster
18 citation
[836] Unsupervised Neural Machine Translation
Mikel Artetxe, Gorka Labaka, Eneko Agirre, Kyunghyun Cho
ICLR2018 poster
1 citation
[837] Leave no Trace: Learning to Reset for Safe and Autonomous Reinforcement Learning
Benjamin Eysenbach, Shixiang Gu, Julian Ibarz, Sergey Levine
ICLR2018 poster
4 citation
[838] Apprentice: Using Knowledge Distillation Techniques To Improve Low-Precision Network Accuracy
Asit Mishra, Debbie Marr
ICLR2018 poster
0 citation
[839] Neural Language Modeling by Jointly Learning Syntax and Lexicon
Yikang Shen, Zhouhan Lin, Chin-Wei Huang, Aaron Courville
ICLR2018 poster
18 citation
[840] A Simple Neural Attentive Meta-Learner
Nikhil Mishra, Mostafa Rohaninejad, Xi Chen, Pieter Abbeel
ICLR2018 poster
0 citation
[841] The Kanerva Machine: A Generative Distributed Memory
Yan Wu, Greg Wayne, Alex Graves, Timothy Lillicrap
ICLR2018 poster
NA
[842] QANet: Combining Local Convolution with Global Self-Attention for Reading Comprehension
Adams Wei Yu, David Dohan, Thang Luong, Rui Zhao, Kai Chen, Mohammad Norouzi, Quoc V Le
ICLR2018 poster
4 citation
[843] Twin Networks: Matching the Future for Sequence Generation
Dmitriy Serdyuk, Nan Rosemary Ke, Alessandro Sordoni, Adam Trischler, Christopher Pal, Yoshua Bengio
ICLR2018 poster
6 citation
[844] On the Information Bottleneck Theory of Deep Learning
Andrew Saxe, Yamini Bansal, Joel Dapello, Madhu Advani, Artemy Kolchinsky, Brendan D Tracey, David D Cox
ICLR2018 poster
2 citation
[845] Deep Learning for Physical Processes: Incorporating Prior Scientific Knowledge
Emmanuel d Bezenac, Arthur Pajot, gallinari patrick
ICLR2018 poster
3 citation
[846] Syntax-Directed Variational Autoencoder for Structured Data
Hanjun Dai, Yingtao Tian, Bo Dai, Steven Skiena, Le Song
ICLR2018 poster
2 citation
[847] Emergence of Linguistic Communication from Referential Games with Symbolic and Pixel Input (2018)
Angeliki Lazaridou, Karl M Hermann, Karl Tuyls, Stephen Clark
ICLR2018
DeepMind
2つのエージェントがコミュニケーションし、指しているものを当てるゲーム。disentangleされている高次の情報の場合だけでなく、生のピクセルデータでもうまくいくことを示した。8層のCNNを使う。
104 citation
[848] Making the V in VQA matter: Elevating the role of image understanding in Visual Question Answering (2016)
a
2016
1 citation
[849] Flexible Neural Representation for Physics Prediction (2018)
Damian Mrowca, Chengxu Zhuang, Elias Wang, Nick Haber, Li Fei-Fei, Joshua B. Tenenbaum, Daniel L. K. Yamins
2018
44 citation
[850] Tracking the World State with Recurrent Entity Networks (2017)
Mikael Henaff, Jason Weston, Arthur Szlam, Antoine Bordes, Yann LeCun
2016, ICLR2017
FAIR, Courant Inst.
RNNに、キーで呼び出すメモリーの構造をつけたネットワーク。キーがエンティティに該当するようにすれば、そのエンティティの状態をずっと気にするような構造が作れる。babiタスクで最新の精度。Children's Book Testでもよい成績。
73 citation
[851] The Malmo Platform for Artificial Intelligence Experimentation
IJCAI-16
798 citation
[852] Deconstructing episodic memory with construction (2007)
Demis Hassabis and Eleanor A. Maguire
TRENDS in Cognitive Sciences, 2007
UCL
デミス・ハサビスの2007年の論文。シーンの構築が重要であることが書かれている。これは空間的な一貫性を保ち、未来を考え、ナビゲーションし、心の理論などに共通するものである。それは、海馬が関わっている。海馬に異常がある人は、うまく答えることもできるが、空間的な一貫性を欠いている。
352 citation
[853] The construction system of the brain (2009)
Demis Hassabis and Eleanor A. Maguire
Philosophical Transactions of the Royal Society B, 2009
UCL
シーン構築の重要性について。空想的なシーンを思い浮かべたり、未来を思い浮かべたり、過去のパーツから再現したりする。頭頂部と前頭部が関与している。前頭葉(PFC)、後帯状皮質(PCC)、楔前部(precuneus)などが関与しているらしい。
NA
[854] Unsupervised Visuomotor Control through Distributional Planning Networks (2019)
Tianhe Yu, Gleb Shevchuk, Dorsa Sadigh, Chelsea Finn
2019
Stanford U.
強化学習は、手動のタスクごとの報酬関数の調整を必要とする.この研究では、報酬へのアクセスのない強化学習の問題を考える。教師なしの空間の埋め込みを学習し、ゴールまでの進捗を計測できるようにする。ゴールが到達する最終状態であるとき、アクションの系列が最適になるような、距離空間を明示的に求めていることになる。3つのシミュレーション環境、2つのマニピュレーションの実環境で実験。UPN(Universal Planning Network)を拡張して、DPN(Distributional Planning Network)というモデルを使う。潜在変数を導入し、ダイナミクスをモデル化する。
0 citation
[855] Universal Planning Networks: Learning Generalizable Representations for Visuomotor Control (2018)
Aravind Srinivas, Allan Jabri, Pieter Abbeel, Sergey Levine, Chelsea Finn
ICML2018
UCB
万能プラニングネットワーク(UPN)。潜在空間での微分可能なプラナー。観測を潜在空間に直し、それに対するアクションの系列で潜在変数を発展させていき、最終的な観測を目的とする観測に近づける。状態遷移のモデルもニューラルネットワーク。シミュレータ上で、迷路や長い腕でものを取る問題。
NA
[856] Diversity is All You Need: Learning Skills without a Reward Function (2018)
Benjamin Eysenbach, Abhishek Gupta, Julian Ibarz, Sergey Levin
2018
CMU, UCB, Google Brain
DIAYN(Diversity if all you need)を提案。教師なしの環境下で、歩くとかジャンプするなどの多様なスキルが表れる。スキルは、潜在変数に条件付けられた方策で、環境の状態を首尾一貫した方法で変えるものである。相互情報量に基づく簡単な目的がうまく働く。
ある状態Sから、アクションAをしたときの情報量を最大化する。(かつ、アクションは自明でないほうがいい。)
0 citation
[857] Visual Reinforcement Learning with Imagined Goals (2018)
Ashvin Nair, Vitchyr Pong, Murtaza Dalal, Shikhar Bahl, Steven Lin, Sergey Levine
2018
UCB
視覚的な想像を使って学習。ゴールを潜在空間の適当な状態と置いて、行動する。そのデータからbeta-VAEで潜在変数を学習する。
NA
[858] Prefrontal cortex as a meta-reinforcement learning system (2018)
Jane X. Wang, Zeb Kurth-Nelson, Dharshan Kumaran, Dhruva Tirumala, Hubert Soyer, Joel Z. Leibo, Demis Hassabis, Matthew Botvinick
2018
DeepMind
位相ドーパミン(DA)は、報酬予測誤差の信号を伝えると考えられてきた。ここでは、DAが刺激反応連合を基礎にしたモデルフリー強化学習を、前頭葉がモデルベース強化学習をやっていると提案する。ひとつのタスクではなく、相互に関連した一連のタスクであり、メタ学習の一種である。特に、DAベースの強化学習が、2つ目の前頭葉の強化学習のアルゴリズムを構成する。これをメタ強化学習と言うことにする。
この仮説は正しそう。
30 citation
[859] Imagination-Augmented Agents for Deep Reinforcement Learning (2017)
Théophane Weber, Sébastien Racanière, David P. Reichert, Lars Buesing, Arthur Guez, Danilo Jimenez Rezende, Adria Puigdomènech Badia, Oriol Vinyals, Nicolas Heess, Yujia Li, Razvan Pascanu, Peter Battaglia, David Silver, Daan Wierstra
NIPS2017
DeepMind
想像に基づくエージェント。I2As。倉庫番とかのゲームで検証。モデルフリーとモデルベースをつなぐ。想像コアでロールアウトする。想像コアは、たぶんCNN+LSTMになっていて、次の状態と報酬を予測する。(ちょっとはっきりわからないけど)。ロールアウトの結果を集めて、方策を決める。モデルは極めて妥当。
NA
[860] Discovering physical concepts with neural networks (2018)
Raban Iten, Tony Metger, Henrik Wilming, Lidia del Rio, and Renato Renner
2018
ETH Zurich
物理的な概念を見つけると言っているが、実際はニューラルネットワークで物理的なものの動きを予測し、学習後のユニットが物理的な概念(例えば速さや周波数)を表していますよということ。まあ自明。
NA
[861] The Role of Social Learning in the Evolution on a Rugged Fitness Landscape
2018
NA
[862] Combined Reinforcement Learning via Abstract Representations (2019)
Vincent Francois-Lavet, Yoshua Bengio, Doina Precup, Joelle Pineau
AAAI2019
McGill U., U. Montreal
面白い。モデルベースとモデルフリーの強化学習の融合。モデルフリーのほうは普通のDGN(DDQN)。モデルベースのほうは、Q値の関数近似に加え、リワード、ディスカウントファクター、状態の遷移に関する項(それぞれエンコーダで抽象的な状態空間にしている)、そして、抽象的な状態表現がゴールに近いところだけ作られて他がまとめられないようにするための項を入れて、最適化する。ある種のプラニングもできるようになる。
状態表現の作り方とかはまだまだ工夫の余地がありそうだが、基本の考え方は良さそう。
307 citation
[863] Dual Path Networks (2017)
Yunpeng Chen, Jianan Li, Huaxin Xiao, Xiaojie Jin, Shuicheng Yan, Jiashi Feng
NIPS 2017
NUS
ILSVRC2017のLOC優勝、CLS(外部データ)優勝
NA
[864] Meta-Learning Update Rules for Unsupervised Representation Learning (2019)
Luke Metz, Niru Maheswaranathan, Brian Cheung, Jascha Sohl-Dickstein
ICLR2019
Google Brain, UCB
教師なし学習を、ダウンストリームの教師あり学習と組み合わせて、外のループを作ろうというもの。その他のヘルドアウトタスクに対しても良くなることを示す。
NA
[865] From Language to Goals: Inverse Reinforcement Learning for Vision-Based Instruction Following (2019)
Justin Fu, Anoop Korattikara, Sergey Levine, Sergio Guadarrama
ICLR2019
Google AI
言語でゴールを指示する。それが報酬になる設定。パノラマセマンティック画像と言語のコマンドを入力にし、報酬を出力するようなネットワークを学習する(逆強化学習)。インドアの家の環境で、SUNCGというデータセットを使う。
ナビゲーション、ピックアンドプレイスの2つのタスク。
面白いんだけど、タスクとしてやっていることはかなり恣意的な感じがある。
NA
[866] Learning Improved Dynamics Model in Reinforcement Learning by Incorporating the Long Term Future (2019)
Nan Rosemary Ke, Amanpreet Singh, Ahmed Touati, Anirudh Goyal, Yoshua Bengio, D. Parikh, Dhruv Batra
ICLR2019
MILA, FAIR
変分推論を使って潜在変数の自己相関モデルを作る。これを使って補助的な損失項をつけることで、長期的な予測がよくなる。
NA
[867] Knowledge Flow: Improve Upon Your Teachers (2019)
Iou-Jen Liu, Jian Peng, Alexander G. Schwing
ICLR2019
U. Illinois, Urbana-Champaign
蒸留のように教師-生徒ネットワークがあるのだが、教師が複数の設定。で、教師の隠れ層を、生徒の隠れ層に足し合わせて学習する。学習された特徴を最初は使える。で、徐々に教師の重みを減らしていく。
NA
[868] Unsupervised Learning via Meta-Learning (2019)
Kyle Hsu, Sergey Levine, Chelsea Finn
ICLR2019
U. Toronto, UCB
教師なし学習は、再構成やディスエンタングルメント、予測などいろいろな指標を取るが、ダウンストリームのタスクに役立つことが重要なので、メタ学習に寄与すればよい。
入力データを教師なし学習(簡単なクラスタリングでもOK)して埋め込みを学習し、データセットをいろいろに分類するタスクを実行する。これによってダウンストリームの分類の精度を良くすることができる。「教師なしメタ学習のための自動的にタスクを生成するクラスタリング」(CACTUs)と呼ぶ。
かなり巧妙な自己教師あり学習の手法に思える。
NA
[869] Imagination Machines: A New Challenge for Artificial Intelligence (2018)
Sridhar Mahadevan
AAAI2018
College of Information and Computer Sciences
想像の重要性。カーネマンの不合理性は宝くじに当たるところを想像してしまうから。想像科学は、データの分布を再現するのではなく、ありえない分布を作り出す。事実でないことも推論する能力がある。問題の生成、強化学習(逆強化学習)、言語の比喩などでも重要。
ざっくりした論文。いろいろ書いているが、あまり骨子は整っていない。
NA
[870] Analogues of mental simulation and imagination in deep learning (2019)
Jessica B. Hamrick
2019
Behavioral Science
サーベイのようなもの。メンタルシミュレーションの重要性とモデルベースのDLの関連。POMDPから始まって、状態や遷移が与えられない場合にデータから学習する場合。背景プランニング(学習時に用いる)や、ディシジョン時プラニング(使うときに用いる)など。モデルベースのDLの今後の課題をまとめて終わり。(複数の抽象化の段階が必要など。)
NA
[871] Neural reparameterization improves structural optimization
Stephan Hoyer, Jascha Sohl-Dickstein, Sam Greydanus
Google Research
2019
構造最適化は、橋梁や飛行機の羽、光学デバイスなどの設計でよく使われるが、解の質は、どのように問題がパラメータ化されるかによる。構造最適化のパラメータ化を良くするために、ニューラルネットワークで帰納的に導かれる関数の暗黙的なバイアスを使う方法を提案する。
NA
[872] RNNs Evolving on an Equilibrium Manifold: A Panacea for Vanishing and Exploding Gradients? (2019)
Anil Kag, Ziming Zhang, Vankatesh Saligrama
2019
Boston U., MERL
ODEにヒントを得て、平衡RNN(ERNN)を提案。不動点にたどり着くように式を変形。
NA
[873] Facebook FAIR's WMT19 News Translation Task Submission (2019)
Nathan Ng, Kyra Yee, Alexei Baevski, Myle Ott, Michael Auli, Sergey Edunov
2019
FAIR
WMT19のFAIRのシステムの紹介。バイトペアエンコーディングのトランスフォーマベース。FAIRSEQ系列モデリングツールキットで学習。英語-ドイツ語と、英語-ロシア語。WMT18のときyり4.5BLEUよくなった。
NA
[874] ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots (2019)
Michael Ahn, Henry Zhu, Kristian Hartikainen, Hugo Ponte, Abhishek Gupta, Sergey Levine, Vikash Kumar
2019
UCB, Google Brain
強化学習に向いた実世界のロボット。D'Clawは、3本指のハンドロボット。9自由度。D'Kittyは、4本足の移動ロボット。12自由度。これまでのロボットは、正確で高くて人間が監視する環境で動く。ところが、学習向きのロボットは、長い期間試行錯誤できるように耐性が高く、安くてメンテナンスが簡単で、大量のデータを人間の監視なしに取ることができないといけない。そのように設計している。
NA
[875] ALBERT: A Lite BERT for Self-supervised Learning of Language Representations (2019)
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut
ICLR 2020, arxiv 2019
Google Research, TTI
2つの手法で大幅にBERTのパラメータをへらす。1つ目は、ファクター化埋め込みパラメータ化(factorized embedding parametarization)。埋め込み行列を、2つの小さな行列に分解する。2つ目は、層をまたがるパラメータ共有。
NA
[876] Deep Dynamics Models for Learning Dexterous Manipulation
2019
NA
[877] Benchmarking TPU, GPU, and CPU Platforms for Deep Learning
2019
NA
[878] Implicit Reparameterization Gradients
2018
NA
[879] Stochastic Backpropagation through Mixture Density Distributions
2016
NA
[880] Deep Neural Networks as Scientific Models (2019)
Radoslaw M. Cichy, Daniel Kaiser
CellPress Reviews, 2019
Freie U. Berlin, Humboldt-U. Berlin
認知科学は、DNNをモデルとして使い始めているが、議論を呼んでいる。ここでは、科学哲学の視点からこのケースを考える。どのようにDNNが認知科学に貢献するか。DNNは、予測や説明だけでなく、「探索」に用いることができる。説明について書いたところは参考になる。
NA
[881] Renovating the Pyramid of Needs: Contemporary Extensions Built Upon Ancient Foundations
2010
76 citation
[882] Knowledge Matters: Importance of Prior Information for Optimization
Caglar Gulcehre and Yoshua Bengio
U. Montreal
NIPS 2012, ICLR 2013
面白い。文化とか集団での学習の話。
文化学習(Henrich and McElreath, 2003)というのや、社会神経科学というのがある。ドーキンスによるミーム(1976)も有名。どのように人間は複雑な概念を、他人の助けを借りて学ぶのか。ペントミノ(テトリスのブロック)が3個とも同じかどうかを学習させる。IKGNN(Intermediate Knowledge Guided Neural Network)というのを提案して良いことを示している。
NA
[883] RoBERTa: A Robustly Optimized BERT Pretraining Approach
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov
Univ. of Washington, FAIR
2019
BERTの再現をして、各ハイパーパラメータと訓練データサイズの影響を慎重に調べた。BERTは、かなり訓練不足であって、その後に出されたモデルのどれとも同じくらいか上回る。我々のベストのモデル(RoBERTa)は、GLUE, RACE, SQuADで最新の結果を出した。以前は見落とされていたデザインの選択の重要性を示し、また、最近の改良に疑問を提示する。
i) 動的マスキング、ii) 次の文予測ロスなしの全文を使う、iii) 大きなミニバッチ、iv) 大きなバイトレベルBPE(バイトペア符号化)(語彙の定め方)、という4つが特徴。
NA
[884] Findings of the 2019 Conference on Machine Translation (WMT19) (2019)
Loic Barrault et al.
WMT 2019
Le Mans Universiteなど各大学
WMT2019の報告。18言語ペアについての比較。日本からは、京大やNICTなど参加。英語ドイツ語などでは人間を超えている。
NA
[885] ViLBERT: Pretraining Task-Agnostic Visiolinguistic Representations for Vision-and-Language Tasks (2019)
Jiasen Lu, Dhruv Batra, Devi Parikh, Stefan Lee
2019
Georgia Tech, FAIR, Oregon State Univ.
ViLBERT(Vision-and-Language BERT)を提案する。画像と自然言語の同時表現を学習する。BERTのアーキテクチャをマルチモーダルな2つのストリームに拡張し、共アテンションのトランスフォーマの層で相互作用する。2つの大きなデータセットで事前学習し、複数のタスクに転移する。VQA, 視覚的常識推論、参照表現、キャプションに基づく画像検索などである。精度が大きく向上し、いずれも最高精度を達成した。
NA
[886] LXMERT: Learning Cross-Modality Encoder Representations from Transformers (2019)
Hao Tan, Mohit Bansal
2019
UNC Chapel Hill
ビジョンと言語的推論は、視覚的な概念、文法的構造、そして、それらのアライメントを必要とする。
本研究では、LXMERTフレームワークを提案する。大規模なトランスフォーマで、3つのエンコーダから成る。物体-関係エンコーダ、言語エンコーダ、そしてクロスモダリティのエンコーダである。事前学習として、大規模な画像と文のペアを使って、5つのタスクを行う:マスクされた言語モデル、マスクされた物体予測(特徴の回帰とラベルの分類)、クロスモダリティのマッチング、画像質問応答。その後、ファインチューンすることで、VQA, GQAの2つのタスクで最新の性能を出した。
NA
[887] VisualBERT: A Simple and Performant Baseline for Vision and Language
Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh & Kai-Wei Chang
UCLA
2019
視覚と言語の幅広いタスクをモデル化するフレームワークであるVisualBERTを提案する。入力されるテキストと、対応する画像中の領域を、自己注意で結びつけるトランスフォーマの層から構成される。事前学習のために、2つの視覚にグラウンドされた言語タスクを解く。実験では、VQA, VCR, NLVR, Fliskr30Kで行い、最新の手法と同等か上回る。
言語と画像の領域をまとめてトランスフォーマに突っ込む構造。
NA
[888] The generative adversarial brain (2019)
Samuel J. Gershman
2019
Harvard U.
脳が世界の生成モデルを学習しているという考えはよく広まっている。脳は、世界の可能な状態について、明示的な密度モデルを学習していると過程することが多いが、それは近似推論を必要とし、通常、うまくいかない。そうでないとすると、識別器を騙すように暗黙的な密度モデルを学習することになる。これはよくGANとして知られている。
本研究では、脳における確率的な計算をGANのフレームワークで説明する。心理学的、神経学的な証拠を挙げ、生成器と識別器の不調が、どのように精神疾患で表れる妄想をもたらすかを述べる。
前頭葉が識別器であるとの説明。関連研究は多いが、ざっくりとしたアイディアのみ。あまり明確な証拠は述べられていない。
NA
[889] Rethinking the Value of Network Pruning (2019)
Zhuang Liu, Mingjie Sun, Tinghui Zhou, Gao Huang, Trevor Darrell
ICLR2019
UCB, 清華大学
宝くじ仮説に反する内容の論文。枝刈りは、通常、学習、枝刈り、ファインチューンという3つの段階から成る。この論文では、通常信じられていることと異なり、最新のどのような枝刈りアルゴリズムでも、ファインチューニングはランダムな初期値から訓練するのに比べ、ほとんど効果がない(むしろ悪い)ことを示す。そして、1) 大きなオーバーパラメタライズなモデルを訓練することは必要なく、2) 学習された「重要な」重みは枝刈りされたネットワークには不要で、3) 枝刈りされたアーキテクチャそのものが重要、ということを示唆している。
宝くじ仮説についても調べ、適切な学習率であれば、「当たりくじ」の初期化が、ランダムな初期化に比べて効果がないことを示す。
NA
[890] Stabilizing the Lottery Ticket Hypothesis (2019)
Jonathan Frankle, Karolina Dziugaite, Daniel M. Roy, Michael Carbin
2019
MIT CSAIL, U. Cambridge, U. Toronto
宝くじ仮説では、反復的な大きさによる枝刈り(IMP)によって、ビジョンタスクのサブネットワークを遡及的に見つけることができる。しかし、IMPは、より深いネットワークではうまくいかない。
この論文では、反復0の時点で枝刈りするのではなく、非常に早い時点(0.1%から7%くらい)で枝刈りすると、より深いネットワークでもIMPがうまくいくことを示す。
NA
[891] Domain Randomization for Transferring Deep Neural Networks from Simulation to the Real World (2017)
Josh Tobin, Rachel Fong, Alex Ray, Jonas Schneider, Wojciech Zaremba, Pieter Abbeel
2017
Open AI, UCB
シミュレーションから現実へのギャップを埋めることはロボットの研究で重要である。本研究では、ドメインランダム化という技術を提案する。シミュレータで画像のレンダリングをランダムにいろいろ変える。カメラ位置、物体の位置、光の条件、テクスチャなど。そうすると、現実世界も、そのようなうちのひとつということになる。物体の局在化タスクで、邪魔なものや部分的なオクルージョンにもうまく対応するものになった。
NA
[892] GANs trained by a two time-scale update rule converge to a local nash equilibrium (2017)
Martin Heusel, Hubert Ramsauer, Thomas Unterthiner, Bernhard Nessler, Sepp Hochreiter
2017
Johannes Kepler University Linz
GANの収束は証明されていない。本研究では、2つの時間スケールをもつアップデートルール(TTUR)を提案する。TTURは、識別器と生成器それぞれに学習率を持つ。TTURは、適度な仮定のもとでナッシュ均衡に収束することを証明する。
NA
[893] VideoFlow: A flow-based generative model for video (2019)
Manoj Kumar, Mohammad Babaeziadeh, Dumitru Erhan, Chelsea Finn, Sergey Levine, Laurent Dinh, Durk Kingma
ICLR 2020, arxiv 2019
Google Brain, U. Illinois at Urbana-Champaign
生成モデルは、複雑な現実の現象を捉え、将来のイベントの系列を予測することができる。特に、動画の予測モデルを作ることは物理世界の理解(モデルベースのロボット制御)にとても重要である。しかし、問題は、未来は不確実であり、過去の観測の系列がたくさんの可能な未来を意味することである。最近のモデルでこの問題に対応するものもあるが、極端に計算量が多いか、直接的にデータの尤度を最適化しない。
この研究では、ノーマライジングフローを用いて、動画の予測をモデル化する。高い品質の確率的予測をすることができ、データの尤度を直接最適化できる。
NA
[894] FairFace: Face Attribute Dataset for Balanced Race, Gender, and Age (2019)
Kimmon Karkkainen, Jungseock Joo
2019
UCL
従来の顔データセットは、コーカソイド(Caucasian)に偏っていた。このデータセットは、人種のバランスに配慮している。10万枚の画像で、白人、黒人、インド人、東アジア人、南アジア人、中東、ラテンの7つの人種グループを定義している。
NA
[895] Adversarially learned inference (2017)
Vincent Dumoulin, Ishmael Belghazi, Ben Poole, Olivier Mastropietro, Alex Lamb, Martin Arjovsky, Aaron Courville
ICLR2017
MILA, Stanford, NYU
敵対的学習推論(ALI)モデルを提案する。生成と推論のネットワークを敵対的なプロセスで訓練する。生成ネットワークは、確率的な潜在変数からデータ空間にサンプルをマッピングし、推論ネットワークはデータ空間の訓練サンプルを潜在変数の空間にマッピングする。識別ネットワークは、生成ネットワークからの潜在・データ空間のサンプルと、推論ネットワークからのサンプルを区別するように学習する。
NA
[896] Adversarial feature learning (2017)
Jeff Donahue, Philipp Krahenbuhl, Trevor Darrell
2017
UCB, UT Austin
GANの生成器の潜在空間は、データ分布の意味的なバリエーションを捉えている。したがって、意味の関連する補助的な問題に、その特徴表現が役に立つはずである。しかし、GANには、データを特徴空間に戻す手段がない。
本研究では、双方向GAN(BiGAN)を提案する。この逆の写像を学習し、補助的な問題に役に立つ特徴表現を学習していることを示す。
NA
[897] Generating Diverse High-Fidelity Images with VQ-VAE-2 (2019)
Ali Razavi, Aaron van den Oord, Oriol Vinyals
2019
DeepMind
ベクトル量子化変分オートエンコーダ(VQ-VAE)を大きな画像生成のために用いる方法を提案する。VQ-VAEの自己回帰プライアをスケールさせ改善する。階層的VQ-VAEとPixelCNNを使う。
NA
[898] A robotic platform for flow synthesis of organic compounds informed by AI planning (2019)
Connor W. Coley et al
Science 2019
MIT
AIで計画し、ロボットで化学物質の合成を行う。
NA
[899] Behaviour Suite for Reinforcement Learning (2019)
Ian Osband, Yotam Doron, Matteo Hessel, John Aslanides, Eren Sezener, Andre Saraiva, Katrina McKinney, Tor Lattimore, Csaba Szepezvari, Satinder Singh, Benjamin Van Roy, Richard Sutton, David Silver, Hado Van Hasselt
ICLR 2020, arxiv 2019
DeepMind
強化学習の共通の評価セットであるbsuite。探索、信用割当、ノイズ、メモリなどについて評価が出る。環境を指定すればいいらしい。OpenAI Gymを設定することもできる。
NA
[900] 画像に関連した言語生成の取組み (2019)
牛久祥孝
人工知能学会誌 2019
オムロンサイニックエックス
画像キャプション生成(データセットと評価指標の問題)、画像質問生成、画像と言語によるインタラクション(画像に基づく対話、言語指示によるタスク実行)をカバー。
NA
[901] What is cognition? (2019)
Tim Bayne et al.
Cell Press 2019
Monash U. ほか
いろんな人が「cognition」のその定義を書いている。
NA
[902] Large Scale Adversarial Representation Learning (2019)
Jeff Donahue, Karen Simonyan
2019
DeepMind
BigBiGANを提案。BigGANに、エンコーダーをつけ、ディスクリミネータを修正。BiGANとかALIのようなエンコーダをつける。表現学習をしているところが利点。
NA
[903] DTMT: A Novel Deep Transition Architecture for Neural Machine Translation (2019)
Fandong Meng and Jinchao Zhang
2019
WeChat AI, Tencent
深層推移RNNベースのNMT、DTMTを提案。トランスフォーマをベースとするものよりBLEUスコアが2.09ポイント高い。推移するときに単純な行列ではなくて層を重ねて推移することによってモデルの表現力を増している。
NA
[904] Efficient Video Generation on Complex Datasets (2019)
Aidan Clark, Jeff Donahue, Karen Simonyan
2019
DeepMind
Kinetics-600データセット上で、GANを走らせて、動画のサンプルを生成。Dual Video Discriminator GAN (DVD-GAN)。FIDとインセプションスコアで最新の性能。BigGANのアーキテクチャをベースにしながら、動画に特有の改良を入れた。分離可能で効率的なアテンション(ジェネレータに使う)や、ディスクリミネータの空間時間分解など。空間方向を担当するディスクリミネータと、時間方向を担当するディスクリミネータの2種類を使う。
NA
[905] Stacked Capsule Autoencoders (2019)
Adam R. Kosiorek, Sara Sabour, Yee Whye Teh, Geoffrey E. Hinton
2019
U. Oxford, Google Brain, DeepMind
オブジェクトは関係する部分から構成され、こうしたオブジェクトの認識は、視点の変化にロバストでなければならない。本論文では、教師なしのカプセルネットワークを提案する。ニューラルエンコーダは、すべての部分を見るものであり、オブジェクトカプセルの存在や姿勢を推論する。デコーダは、すでに見つかった個別の部分の姿勢を推定する。SVHNでは最新の、MNISTでは最新に近い、教師なしでの分類結果を出した。
NA
[906] Dynamical Distance Learning for Unsupervised and Semi-Supervised Skill Discovery (2019)
Kristian Hartikainen, Xinyang Geng, Tuomas Haarnoja, Sergey Levin
2019
UCB, Google
報酬の設定が大変で、現実的にはかなりスムーズな勾配になるように調整しないといけない。本研究では、動的な距離を自動的に学習する。ゴールまで何ステップかかるか。9自由度のハンドを生の画像だけで動かせるようになった。(TDとかでやるよりこちらのほうがよっぽど自然なのでは。)
NA
[907] DeepLesion: automated mining of large-scale lesion annotations and universal lesion detection with deep learning (2019)
Ke Yan, Xiaosong Wang, Le Lu, and Ronald M. Summers
2019
National Institute of Health, Clinical Center, US
すごいデータセット。病院のPACS(picture archiving and communication systems)は、通常、放射線技師によって日々のワークルフローのなかでアノテーションされる。このデータセットは、4000人のユニークな患者の、32000のCTスライスの32000の病変。肺や骨、肝臓やリンパなど、さまざまな部位が含まれる。
NA
[908] Text-based Editing of Talking-head Video (2019)
OHAD FRIED, AYUSH TEWARI, MICHAEL ZOLLHÖFER, ADAM FINKELSTEIN, ELI SHECHTMAN, DAN B GOLDMAN, KYLE GENOVA, ZEYU JIN, CHRISTIAN THEOBALT, MANEESH AGRAWALA
2019
Stanford U., Max Planck Institute for Informatics, Princeton U. Adobe
すごい。インタビュー動画のセリフを文字列として変えると、それに対応する動画になる。GANで生成。時間・空間的なアドバーサリアルロスを使う。どの文字がどの音声に対応するかをアライメントし、該当部分を削除し、再構成する。
NA
[909] Stochastic Latent Actor-Critic: Deep Reinforcement Learning with a Latent Variable Model (2019)
Alex X. Lee, Anusha Nagabandi, Pieter Abbeel, Sergey Levin
2019
UCB
深層強化学習は、2つの問題を解かなければならない。表現学習の問題と、タスク学習の問題。この論文では、表現学習の問題を扱う。確率的潜在アクタークリティック(SLAC)アルゴリズムというものを提案する。画像の高次元な入力から複雑な連続値の制御の方策を学習する方法であり、SLACは、確率的時系列潜在変数モデル(VAEみたいな感じ)によって、コンパクトな潜在表現空間を学習する。この空間の上で、クリティックのモデルを学習する。クリティックの学習がずっと効率的になる。
ようやくこういうのが出て良い。
NA
[910] Pay Less Attention with Lightweight and Dynamic Convolutions (2019)
Felix Wu, Angela Fan, Alexei Baevski, Yann N. Dauphin, Michael Auli
ICLR 2019
Cornell U., Facebook AI Research
トランスフォーマなどの自己注意と同じようなパフォーマンスを出せるものをCNNで提案する。しかも自己注意は2次のオーダだが、こちらは線形にスケールする。軽いコンボリューション(lightweight convolution)と、ダイナミックコンボリューション。英語-ドイツ語翻訳のWMT'14で、29.7のBLEUスコア。
NA
[911] ORRB -- OpenAI Remote Rendering Backend (2019)
Maciek Chociej, Peter Welinder, Lilian Weng
2019
OpenAI
ロボット環境で、カスタマイズされたレンダリングを可能にするシステムORRBを提案する。Unity3dゲームエンジンで作られていて、MuJoCo物理シミュレーションライブラリとのインタフェースをもつ。ORRBは、視覚的なドメインのランダム化を念頭に作られている。(OpenAIのハンドのやつ)
NA
[912] A Mean Field Theory of Batch Normalization (2019)
Greg Yang, Jeffrey Pennington, Vinay Rao, Jascha Sohl-Dickstein, Samuel S. Schoenholz
2019
Microsoft Research AI, Google Brain
全結合のフィードフォワードNNにおいて、バッチ正規化のための平均場理論を提案する。それによると、勾配は深さとともに指数的に大きくなる。実際、バッチ正規化そのものが、勾配爆発の原因である。結果的に、バニラなバッチ正規化は、一般的な初期化の方法だと、深さが深くなると訓練できない。ネットワークを線形に近づけることで、訓練の可能性を良くすることができる。
NA
[913] TFX: A TensorFlow-Based Production-Scale Machine Learning Platform (2017)
Denis Baylor, Eric Breck, ..., Martin Zinkevich
KDD 2017
Google
機械学習のモジュールを生成してデプロイするプラットフォーム。訓練データを使ってモデルを作り、分析し、検証し、プロダクションに入れる。TFTはm,グーグルで開発された、テンサーフローに基づく汎用の機械学習プラットフォームである。
Warm-startingのための転移学習とかもある。
NA
[914] Arbitrary style transfer in real-time with adaptive instance normalization (2017)
Xun Huang and Serge Belongie
2017
Cornell U.
スタイルトランスファーは、反復を繰り返すので遅い。早くする方法も提案されているが、固定されたスタイルにしかできず、任意のスタイルに適用できない。この論文では、簡単でかつ任意のスタイルに実時間で変換できる手法を提案する。最も重要なのは、AdaIN(適応的インスタンス正規化)レイヤで、スタイルの特徴とコンテンツの特徴の、平均・分散をあわせるものである。
NA
[915] Sphereface: Deep hypersphere embedding for face recognition (2017)
Weiyang Liu, Yandon Wen, Zhiding Yu, Ming Li, Bhiksha Raj, Le Song
CVPR 2017
Georgia Tech, CMU, Sun Yat-Sen Univ
理想的な顔の特徴は、クラス内の距離が短く、クラス間の距離が遠いものである。本研究では、角度ソフトマックス(angular softmax, A-softmax)損失を提案し、角度を分離できるような特徴をCNNが学習できるようにする。A-softmaxは、超球の多様体を分離するような制約とみなすことができる。
NA
[916] Large-margin softmax loss for convolutional neural networks (2017)
Weiyang Liu, Yandong Wen, Zhiding Yu
2017
北京大学、華南理工大学、CMU, 深セン大学
Softmaxとクロスエントロピーの組み合わせがよく使われるが、特徴量を識別的にするのを促進するわけではない。本論文では、一般化されたラージマージンソフトマックス(L-Softmax)損失を提案する。クラス内をコンパクトに、クラス間を分離可能に特徴量を学習する。
NA
[917] Deconstructing lottery tickets: Zeros, signs, and the supermask (2019)
Hattie Zhou, Janice Lan, Rosanne Liu, Jason Yosinski
2019
Uber AI Labs
宝くじ仮説による、小さなネットワーク(初期値つき)は、しばしばもとのネットワークよりよい性能を示すが、その理由ははっきりわかっていない。本論文では、3つの要素について調べる。ゼロ、符号、スーパーマスク。これによって、なぜ重みをゼロに設定するのが重要か、なぜ再初期化のときに符号だけでいいか、なぜマスクが訓練のように働くのかを洞察を得ることができる。
スーパーマスクを課すことで、ランダムよりずっとよい精度のモデルを作ることができることを示す。
NA
[918] End-to-End Robotic Reinforcement Learning without Reward Engineering (2019)
Avi Singh, Larry Yang, Kristian Hartikainen, Chelsea Finn, Sergey Levine
2019
UCB
強化学習で、報酬関数を設定するのは大変。ロボットと同じような知覚のパイプラインを作るか、別のセンサーで判定しなくてはいけない。本研究では、そこそこの数の成功例を与えると、報酬の仕様を学習できる方法を提案する。ユーザにある状態を見せて、それが成功かどうかを判定してもらう。アクティブなクエリーを出す。VICE-RAQと呼ぶ手法を提案。(RAQ: Reinforcement Learning with Active Queries。VICE: Variational Inverce Control with Events、イベントによる変分逆制御。強化学習をグラフィカルモデルの推論として定式化する)
NA
[919] Luck Matters: Understanding Training Dynamics of Deep ReLU Networks (2019)
Yuandong Tian, Tina Jiang, Qucheng Gong, Ari Morcos
2019
FAIR
教師生徒ネットワークで、生徒のほうがオーバーパラメタライゼーションになっている設定。これで、フラットミニマとか、暗黙的な正則化とか、当たりくじとかが統一的に説明できる。
NA
[920] Learning Sparse Networks Using Targeted Dropout (2019)
Aidan N. Gomez, Ivan Zhang, Kevin Swerskyk Yarin Gal, Geoffrey E. Hinton
2019
Google
ランダムにドロップアウトするのではなく、重みが小さいものをドロップアウトする。それによって、プルーニングに対して強いものができる。
NA
[921] SGD on Neural Networks Learns Functions of Increasing Complexity (2019)
P. Nakkiran, G. Kaplun, D. Kalimeris, T. Yang, B. Edelman, F. Zhang, B. Barak
2019
Harvard U.
SGDの効果として、最初は線形な関数と同じものを学習する。そのうち、より複雑な関数を学習している。初期の線形な関数で正しく分類されるサンプルはそのまま維持されている。
NA
[922] AI Feynman: a Physics-Inspired Method for Symbolic Regression (2019)
Silviu-Marian Udrescu, Max Tegmark
2019
MIT
物理学の法則が、少数の変数で記述されたり、低次の多項式であることが多かったり、構成性があったりなどの特徴をもつことを利用して、探索する。うまくいかない場合はニューラルネットワークも使う。全体を作り込んだアルゴリズムで構成しており、100の式を全て見つけることができた。
NA
[923] A free energy principle for a particular physics (2019)
Karl Friston
2019
UCL
マルコフブランケットによってものが外部と区別される。自己組織化するシステムは外部を知覚し、表現をもつ。
NA
[924] The free-energy principle: a unified brain theory? (2010)
Karl Friston
2010
Nat. Rev. Neurosci. 11, 127-138
自由エネルギー原理と、予測符号化。
NA
[925] The Helmholtz Machine (1994)
Peter Dayan, Geoffrey E Hinton, Radford M Neal, Richard S Zemel
1994
NA
[926] A review of predictive coding algorithms (2016)
M. W. Spratling
2016
NA
[927] Cerebralhierarchies: predictive processing,precisionandthepulvinar
2015
NA
[928] Reflections on agranular architecture: predictive coding in the motor cortex
2013
NA
[929] Predictive Reward Signal of Dopamine Neurons (1998)
Wolfram Schultz
1998
NA
[930] The debate over dopamine’s role in reward: the case for incentive salience (2007)
Kent C. Berridge
2007
NA
[931] The computational neurobiology of learning and reward (2006)
Daw, N. D. & Doya, K.
2006
NA
[932] Neural Elements for Predictive Coding (2016)
Stewart Shipp
2016
NA
[933] Toward a unified theory of efficient, predictive, and sparse coding
2018
PNAS
728 citation
[934] Canonical Microcircuits for Predictive Coding
2012
Neuron
NA
[935] Theory of Mind: A Neural Prediction Problem
2013
Neuron
NA
[936] Whole-brain models to explore altered states of consciousness from the bottom up
2020
NA
[937] Neural Darwinism: Selection and reentrant signaling in higher brain function (1993)
Gerald M. Edelman
1993
Neuroscience Inst.
ニューラルダーウィニズム。神経グループ選択理論の3つの要素。発達的選択、経験的選択、リエントラントマッピング(お互いに強化するような構造ができる)。
NA
[938] Scene Representation Networks: Continuous 3D-Structure-Aware Neural Scene Representations (2019)
Vincent Sitzmann Michael Zollhöfer Gordon Wetzstein
2019
Stanford
シーン表現ネットワーク(SRN)を提案。エンコーダのところはGQNと同じだが、デコーダのところが、微分可能なレイマーチングとFCN、LSTMを使って描画する。GQNよりきれいに描ける。
NA
[939] Deep Reinforcement Learning for Industrial Insertion Tasks with Visual Inputs and Natural Rewards (2019)
Gerrit Schoettler, Ashvin Nair, Jianlan Luo, Shikhar Bahl, Juan Aparicio Ojea, Eugen Solowjow, Sergey Levine
2019
Siemens, UCB
USBやD-Subなどのケーブルを差し込むタスク。DDPGに似たTD3(ツインディレイド 深層決定方策勾配)、ソフトアクタークリティックを使う。それに加えて、残余RL(residual RL)を使う。また、例示学習(learning from demonstration)を使う。
NA
[940] ArcFace: Additive Angular Margin Loss for Deep Face Recognition (2019)
Jiankang Deng, Jio Guo, Niannan Cue
2019
Imperial College London, InsightFace
顔認識で、いくつかの方法があるが、その人の中心とサンプルの距離を減らす。Additive Angular Margin Loss(付加的角度幅ロス)という方法を提案する。それぞれのクラスのベクトルと、サンプルのCNNの最終層のベクトルで、arccosをとって、その角度に対してペナルティをかけて、素性の李スケールをする。
NA
[941] AutoAugment: Learning Augmentation Policies from Data (2019)
Ekin D. Cubuk, Barret Zoph, Dandelion Mane, Vijay Vasudevan, Quoc V. Le
2019
Google Brain
データ拡張の自動化のために、コントラスト、移動、回転、反転、太陽光、ポスター化、ブライトネス、シャープネスなど16種類のオペレーションを行う。コントローラーをRNNで構成。方策勾配法で更新。同じデータセットでこれまでにない精度を達成。
NA
[942] Text2Scene: Generating Compositional Scenes from Textual Descriptions (2019)
Fuwen Tan, Song Feng, Vicente Ordonez
2019
バージニア大、IBM
GANを使うのではなく、事前に生成したパッチを組み合わせてテキストから画像を生成する。漫画的なシーン、MSCOCOで実験。
NA
[943] VideoBERT: A Joint Model for Video and Language Representation Learning (2019)
Chen Sun, Austin Myers, Carl Vondrick, Kevin Murphy, and Cordelia Schmid
2019
Google Research
料理動画に適用して、BERTを適用し、長期の依存関係を捉える。キャプションから動画、動画からキャプション、動画から未来の動画などを生成できるようなモデル。なんだか結果の画像がきれいすぎるが、過学習している?ビジュアルワードを使ってクラスタリングしているようだ。
NA
[944] A Style-Based Generator Architecture for Generative Adversarial Networks (2018)
Tero Karras, Samuli Laine, Timo Aila
2018
NVIDIA
潜在変数から直列の層で画像を生成するのではなく、いったん直列の層(f)で生成した画像のスタイル成分を、別の生成用のネットワーク(g)に入れて生成する。
最後に、disentanglementを測定する新たな方法を2つ提案する。
知覚パス長(perceptual path length)。ある潜在変数を変えたときに、それが知覚的にどのくらい変わるかを積分して求める。大きく変わってない(線形に変わる)ほうが良い。
もうひとつは、線形な分離可能性。ある属性でサンプルを2つに分けたいとき(たとえば男性と女性)、線形な分離器(線形SVMとか)で分けられるほうが良い。
NA
[945] DeepVoxels: Learning Persistent 3D Feature Embeddings (2018)
Vincent Sitzmann, Justus Thies, Felix Heide, Matthias Nießner, Gordon Wetzstein, Michael Zollh¨ofer
2018
Stanford, Technical U. of Munich, Princeton U.
3次元の内部表現を得たいという問題意識。GQNとかと同じ。サーベイがちゃんとしている。
2Dの特徴量から3次元の特徴量にし、DeepVoxelというので描画して、穴を埋めて、3次元にする。それを2Dに戻す。それを敵対的訓練する。
DeepVoxelは、GRUを使って、また64^3とかに空間を分けて、3DコンボリューションとU-Netで描画。
NA
[946] A Meta-Transfer Objective for Learning to Disentangle Causal Mechanisms (2019)
Yoshua Bengio, Tristan Deleu, Nasim Rahaman, Nan Rosemary Ke, Sebastien Lachapelle, Olexa Bilaniuk, Anirudh Goyal and Christopher Pal
2019
MILA
A->BとB->Aの因果関係は表面上は区別がつかないが、Aの周辺確率が変わったとき、Bの周辺確率が変わったときで異なる。例えば、雨が降るから傘を広げるというのは、気候変動で雨の確率が変わると、傘の確率も変わるが、傘の確率が変わっても雨の確率は変わらない。こういうのは、介入(intervention)によって見つけることができるはずである。知識が適切に書かれていれば、データの分布の変動も少なくなるはずという仮説に立つ。
NA
[947] XLNet: Generalized Autoregressive Pretraining for Language Understanding (2019)
Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le
2019
CMUとGoogle Brain。(BERTはGoogle AI Language。)
BERTが、マスクされたポジション間の依存性を無視しているので、プレトレインとファインチューンの乖離があるのに対して、XLNetは、一般化された自己相関事前学習として、すべての入れ替えに対しての尤度を最大化し、BERTの限界を克服する。Transformer-XLを使う。最高精度を達成。
NA
[948] Learning Correspondence from the Cycle-Consistency of Time (2019)
Xiaolong Wang, Allan Jabri, Alexei A. Efros
CVPR2019
CMU, UCB
動画を使って前方、後方へのサイクルコンシスタンシー。面白い。セグメンテーション等さまざまなタスクにも使える。
NA
[949] Discovering Visual Patterns in Art Collections with Spatially-consistent Feature Learning (2019)
Xi Shen, Alexei A. Efros, and Mathieu Aubry
CVPR2019
Ecole des Ponts ParisTech, UCB
ほとんど複製されたようなパターンを大量の絵画の作品から見つける。特徴量の類似度を使う。異なるメディア(水彩画とか油絵とか)に対応するために自己教師あり学習を使う。
NA
[950] Data-Efficient Image Recognition with Contrastive Predictive Coding (2019)
Olivier J. Henaff, Ali Razavi, Carl Doersch, S. M. Ali Eslami, Aaron van den Oord
2019
DeepMind
大きな深層モデルは、画像ラベルが豊富にあるときはいいが、生物的なビジョンは、ラベルなしのデータを活用しており、半教師ありである。この研究では、この問題に対して、コントラスティブ(対比的な/対照的な)予測コーディング(CPC)を使う。結果として、簡単な線形の分類器を得られた表現につかえば、AlexNetを超える精度を出す。
パッチにわけて、将来の(擬似的に)パッチを予測するようなタスクをさせる。それをコントラスティブ損失とおいて学習する。良さそう。
NA
[951] Model-Predictive Policy Learning with Uncertainty Regularization for Driving in Dense Traffic (2019)
Mikael Henaff, Alfredo Canziani, Yann LeCun
2019
NYU, FAIR
観測データだけから学習する。観測データだけを使って方策を学習するのは、実行のときに状態の分布が観測したものと変わるので、難しい。この研究では、学習された環境のダイナミクスを巻き戻して方策を学習する。その際に2つのコストをペナルティとしてかける。1つは、もともとのオリジナルのコストで、方策が最適化すべきものである。もうひとつは、訓練された状態からどのくらい逸脱しているかの不確実性のコストである。この2つ目の項を測るために、自らの予測に関してのダイナミクスの不確実性を使う。
LeCun先生が車の渋滞のなかで動く様子を見せていたもの。
NA
[952] Prediction Under Uncertainty with Error-Encoding Networks (2019)
Mikael Henaff, Junbo Zhao, Yann LeCun
2019
FAIR, NYU
不確実性がある場合の、時間的な予測を扱う。将来の状態に、予測可能な要素と予測不可能な要素があるときに、それらの要素をディスエンタングルするというシンプルなアイディアである。予測不可能な要素を、低次元の潜在変数に符号化し、将来のモデルに組み込む。動画の予測で評価。
シンプルなモデルで良さそう。
NA
[953] Model-Based Planning with Discrete and Continuous Actions (2019)
Mikael Henaff, Will Whitney, Yann LeCun
2019
NYU, FAIR
学習され微分可能なフォワードモデルを用いたアクションプランニングは、多くの望ましい性質をもつ一般的なアプローチである。が、アクションスペースが離散のときはうまくいかない。(勾配の問題。)この研究では、離散的なアクションの空間でも、逆伝搬によってプランニングがうまくいくことを示す。
NA
[954] wav2vec: Unsupervised Pre-training for Speech Recognition (2019)
Steffen Schneider, Alexei Baevski, Ronan Collobert, Michael Auli
2019
FAIR
生の音声データから表現を学習することで、教師なしの事前学習を行う手法wav2vecを提案する。複数レイヤーのCNNで、ノイズ(が乗ったもの?)とのバイナリ分類のタスクを解く。
NA
[955] Scaling and Benchmarking Self-Supervised Visual Representation Learning (2019)
Priya Goyal, Dhruv Mahajan, Abhinav Gupta, Ishan Misra
2019
FAIR
画像をジグゾーパズルにして解く、白黒にして色をつけるというタスクを作って、自己学習する。で、転移学習する。それによって精度があがる。これがデータ量や画像サイズなどによってどう変化するかを調べている。
NA
[956] Cloze-driven Pretraining of Self-attention Networks (2019)
Alexei Baevski, Sergey Edunov, Yinhan Liu, Luke Zettlemoyer, Michael Auli
2019
FAIR
cloze(穴埋め読解式の)。双方向のトランスフォーマを事前学習する新しい方法を提案する。穴埋め式の語の復元タスクを解き、それぞれの語を周りのテキストから復元しなければならない。
BERTとほぼ同時期に考えられたモデルで、BERTとかなり似ている。ほぼ同じような性能。CNNエンコーディングを使う。
NA
[957] Unsupervised Meta-Learning for Reinforcement Learning (2018)
Abhishek Gupta, Benjamin Eysenbach, Chelsea Finn, Sergey Levin
2018
UCB, Google
強化学習の文脈では、メタ学習は、事前タスクによって、新しい問題が効率的に解けるというものである。メタ強化学習は、そのためのタスクのデザインが大変である。この論文では、強化学習のための、教師なしのメタ学習のアルゴリズムを提案する。一般的なレシピを示し、最近の探索技術やモデル不可知メタ学習などに基づいた具体化の方法を述べる。
結局、状態の区別というタスクと、DIAYNのようなスキル獲得のタスクを、2つの教師なしのタスクとしている。まあ、確かに。
NA
[958] Deep Anomaly Detection with Outlier Exposure (2019)
Dan Hendrycks, Mantas Mazeika, Thomas Dietterich
ICLR 2019
UCB, U. Chicago, Oregon State U.
異常サンプルと分布内のサンプルを区別することは重要だが難しい。本研究では、副次的な外れ値のデータセットで異常検知器を訓練することで、異常サンプルを見つける方法を提案する。これを外れ値暴露(Outlier Exposure)と呼ぶ。うまく汎化する。
目的のデータセットと別のデータセットをもってきて外れ値とするようだ。シンプル。
NA
[959] Glow: Generative flow with invertible 1x1 convolutions (2018)
Diederik P. Kingma, Prafulla Dhariwal
2018
OpenAI
フローに基づく生成モデルは、魅力的だが、計算が大変。本研究では、反転可能な1x1のコンボリューションを使った生成的フリーの一種である、Glowというモデルを提案する。対数尤度でだいぶよい結果。画像もきれい。
NA
[960] On Variational Bounds of Mutual Information (2019)
Ben Poole, Sherjil Ozair, Aaron van den Oord, Alexander A. Alemi, George Tucker
ICML2019
Google Brain, MILA, DeepMind
相互情報量を多次元の空間で制約するのは難しい。最近では、変分限界をニューラルネットワークでパラメタライズする研究がある。この研究では、それらをひとつのpフレームワークで統一する。
NA
[961] Bit-Swap: Recursive Bits-Back Coding for Lossless Compression with Hierarchical Latent Variables (2019)
Friso H. Kingma, Pieter Abbeel, Jonathan Ho
ICML2019
UCB
ビッツバック(bits-back)の議論によると、潜在変数のモデルは、損失なしの圧縮のスキームに変換できる。非対称の数値システムによるビッツバック(BB-ANS)は最近提案されたものであるが、ひとつの層をもつ潜在変数のモデルでうまくいく符号化を実現した。しかし、非効率であった。
本論文では、Bit-Swapという新しい圧縮のスキームを提案する。これはBB-ANSを一般化したもので、マルコフ鎖モデルによる階層的な潜在変数のモデルである。zipとかpngとかよりだいぶいい圧縮率を示す。
NA
[962] Variational Inference with Normalizing Flows (2015)
Danilo Jimenez Rezende, Shakir Mohamed
2015
Google DeepMind
近似事後分布の選択は、変分推論でコアの問題のひとつである。通常、効率的な推論のために簡単な族を使うが、推論の質に影響する。本研究では、柔軟で任意に複雑になりえるスケーラブルな近似事後分布の方法を提案する。これは、ノーマライジングフローというもので、簡単な初期の密度が、反転可能な変換の系列によって、もっと複雑なものになるというものである。
NA
[963] Deep Compressed Sensing (2019)
Yan Wu, Mihaela Rosca, Timothy Lillicrap
ICML2019
DeepMind
圧縮センシングは、疎な信号を復元する方法。オートエンコーダとかと似ているがちょっと違う。データの一部だけが観測されると仮定し、復元する。GANがこのモデルの族の特別なケースと」解釈できる。
NA
[964] Differentiable Dynamic Normalization for Learning Deep Representation (2019)
Ping Luo, Zhanglin Peng, Wenqi Shao, Ruimao Zhang, Jiamin Ren, Lingyun Wu
ICML2019
U. Hong Kong, 香港中文大学、SenseTime
動的正規化(DN)を提案する。任意の正規化オペレータを学習する。バッチ正規化とかレイヤー正規化は最初から動作が決まっているが、それを微分可能にする。
NA
[965] Invertible Residual Networks (2019)
Jens Behrmann, Will Grathwohl, Ricky T. Q. Chen, David Duvenaud, Jorn-Henrik Jacobsen
ICML2019
U. Bremen, U. Toronto
通常のResNetが反転でき、同じモデルを分類、密度推定、生成に使えることを示す。通常は反転を可能にするには、アーキテクチャに制限をかけたり、次元を分割したりする必要があるが、我々の方法は、シンプルな正規化のステップを入れるだけである。反転可能ResNetは、尤度を最大化するように訓練すれば生成モデルになる。画像分類でもSOTAに近く、生成モデルとしてもフローベースのものに近い。
NA
[966] Are Generative Classifiers More Robust to Adversarial Attacks? (2019)
Yingzhen Li, John Bradshaw, Yash Sharma
ICML2019
Microsoft Research Cambridge, U. Cambridge, Max Planck, Eberhard Karls University of T¨ubingen
敵対的攻撃の研究はほとんど識別的な分類器を使っている。この研究では、deeep Bays分類器を使う。ナイーブベイズを条件付き深層生成モデルで改良したものである。結果、deep Bays分類器は、よりロバストで、多くの攻撃に対してその防御法が有効であった。
NA
[967] Self-Attention Generative Adversarial Networks
ICML2019
Han Zhang, Ian Goodfellow, Dimitris Metaxas, Augustus Odena
Rutgers U. Google
画像生成のための、アテンションに基づく、長距離の依存関係のモデリングを提案する。従来のGANは、低解像度の特徴マップの空間的に局所的な点の関数として、高い解像度の画像を生成していた。SAGANでは、すべての特徴位置の手がかりから生成する。
NA
[968] Jumpout : Improved Dropout for Deep Neural Networks with ReLUs (2019)
Shengjie Wang, Tianyi Zhou, Jeff A. Bilmes
ICML2019
U. Washington
ReLUとともに使われるドロップアウトは、DNNの線形な要素が近くのデータ点から学習されるのを促進し、同じドロップアウト率が、異なる非活性化率につながり、ドロップアウトのリスケーリングが正規化の非整合性を引き起こす。ジャンプアウトはこれを改善する。
NA
[969] The Evolved Transformer (2019)
David R. So, Chen Liang, Quoc V. Le
ICML2019
Google Bain
トランスフォーマのアーキテクチャがいいのかどうか知るために、NASを使ってトランスフォーマの代替物を探す。遺伝子に右側のアーキテクチャ、左側のアーキテクチャなどを表すようにする。結果的にいい構造が見つかって、深さ方向に分離可能なコンボリューションを使う、GLU(Gated Linear Unit)を使う、分岐を使う、swish活性化を使うなど。そんなにきれいではないが、従来の大きなトランスフォーマと同じ性能を、少ないパラメータで出せる。
NA
[970] SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver (2019)
Po-Wei Wang, Priya L. Donti, Bryan Wilder, Zico Kolter
ICML2019
CMU, USC
MAXSATの問題を緩和し、半正定計画問題にしてend-to-endに解く。CNNの上にSATNetの層を置くことで、数独の解(MNISTの手書き数字での視覚数独の答え)を見つけることができる。
NA
[971] TASK2VEC: Task Embedding for Meta-Learning (2019)
A. Achille, M. Lam, R. Tewari, A. Ravichandran, S. Maji, C. Fowlkes, S. Soatto, P. Perona
2019
AWS and UMAS, UCLA, UCI, Caltech
タスク埋め込み。画像認識のタスクであれば、標準的なネットワーク(プローブネットワーク)に対して、特定のタスク(データセット)に対しての重みの変化を取るなどして距離を算出する。
NA
[972] BabyAI: First Steps Towards Grounded Language Learning With a Human In the Loop (2019)
Maxime Chevalier-Boisvert, Dzmitry Bahdanau, Salem Lahlou, Lucas Willems, Chitwan Saharia, Thien Huu Nguyen, and Yoshua Bengio
ICLR2019
MILA
ブロックワールドにものが置いてあって、移動したりピックアップしたりという環境。これと言語が対応しているようなプラットフォーム。あんまり面白くなさそう。
NA
[973] Deep learning in agriculture: A survey
2018
NA
[974] Towards Non-saturating Recurrent Units for Modelling Long-term Dependencies (2019)
Sarath Chandar, Chinnadhurai Sankar, Eugene Vorontsov, Samira Ebrahimi Kahou, Yoshua Bengio
AAAI2019
U. Montreal, Google Brain, Microsoft Research
非飽和リカレントユニット(NRU)を提案。RELUを使う。メモリの内容が足し算・引き算で書き込み、消去がされる。これで長距離の依存関係をモデル化できる。
NA
[975] Adapting Auxiliary Losses Using Gradient Similarity (2019)
Yunshu Du, Wojciech M. Czarnecki, Siddhant M. Jayakumar, Razvan Pascanu, Balaji Lakshminarayanan
2019
DeepMind
補助損失を入れるときに、もとのタスクに対してプラスになるときもそうでないときもある。補助タスクの勾配と、もとのタスクの勾配のコサイン類似度が正のとき、使うようにすればうまくいく。タスクの近さをうまく指標化している。
NA
[976] Learning and Evaluating General Linguistic Intelligence (2019)
Dani Yogatama, Cyprien de Masson d'Autume, Jerome Connor, Tomas Kocisky, Mike Chrzanowski, Lingpeng Kong, Angeliki Lazaridou, Wang Ling, Lei Yu, Chris Dyer, Phil Blunsom
2019
DeepMind
汎用言語知能というのを定義し、語彙、シンタックス、セマンティクスなどを新しいタスクにすばやく適用できることとしている。最新の手法を調査している。あまり新しいことは言っていない。
NA
[977] World Discovery Models (2019)
Mohammad Gheshlaghi Azar, Bilal Piot, Bernardo Avila Pires, Jean-Bastien Grill, Florent Altché, Rémi Munos
2019
DeepMind
世界モデル+好奇心。ShumidhuberのCNN+GRUのモデル化に、情報ゲインを加える。
NA
[978] QT-Opt: Scalable Deep Reinforcement Learning for Vision-Based Robotic Manipulation (2018)
Dmitry Kalashnikov, Alex Irpan, Peter Pastor, Julian Ibarz, Alexander Herzog, Eric Jang, Deirdre Quillen, Ethan Holly, Mrinal Kalakrishnan, Vincent Vanhoucke, Sergey Levine
2018
Google, UCB
1000種類の物体の58万回の把持。特徴は、分散最適化フレームワーク、オフポリシーとオンポリシーの組み合わせ。閉ループでビジョンに基づく方策を学習する。物体を把持しやすいように他から離す、把持前に持ちやすい位置に直す、再度の把持、邪魔に対しての動的な反応(ボールなど転がってもつかむ)などを入れている。
オフラインデータはと、実際の把持データが、リプレイバッファに入る。オフラインのデータはオフポリシーで、実際のデータはオンポリシーで、ベルマン更新でQTを更新する。
NA
[979] The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks (2019)
Jonathan Frankle, and Michael Carbin
ICLR2019
MIT CSAIL
ネットワークのプルーニングをしてもほとんど精度が落ちない。ところが、訓練、プルーニング、初期化すると、再訓練しても精度が出ない。これは、たまたま初期化で良い値を引いた部分ネットワークがあるからでは。ということで、訓練、プルーニング、最初のネットワークと同じ値で初期化するとうまくいく。初期値と構造のセットで当たりを引くことが重要。これを宝くじ仮説と呼ぶ。
NA
[980] Deep learning generalizes because the parameter-function map is biased towards simple functions (2019)
Guillermo Valle Perez, Chico Q. Camargo, Ard A. Louis
ICLR2019
U. Oxford
なぜDNNが汎化するか。多くのDNNのパラメータ-関数マップは、簡単な関数のほうにバイアスされている。多くの実問題は、このバイアスが役立つ。
NA
[981] Do Deep Generative Models Know What They Don't Know? (2019)
Eric Nalisnick, Akihiro Matsukawa, Yee Whye Teh, Dilan Gorur, Balaji Lakshminarayanan
ICLR2019
DeepMind
分布外のデータかどうかを、フローベースのモデル、VAE, ピクセルCNNなどは分からない。なので注意して使う必要がある。(ただ、原理的な限界ではない。)
NA
[982] Keep Drawing It: Iterative language-based image generation and editing (2018)
Alaaeldin El-Nouby, Shikhar Sharma, Hannes Schulz, Devon Hjelm, Layla El Asri, Samira Ebrahimi Kahou, Yoshua Bengio, Graham W. Taylor
NIPS2018
U. Guelph, MSR, Vector Institute, U. Montreal, CIFAR
対話から、少しずつキャンバスにお絵かきをしていくモデル。GANとGRU。CLEVERデータセットをインタラクティブにしたiCLEVERデータセットを使う。たぶん意味理解を意識。
18 citation
[983] AttnGAN: Fine-Grained Text to Image Generation With Attentional Generative Adversarial Networks (2018)
Tao Xu, Pengchuan Zhang, Qiuyuan Huang, Han Zhang, Zhe Gan, Xiaolei Huang, Xiaodong He
CVPR2018
Lehigh U., MSR, Rutger U., Duke U.
アテンションGAN。テキストから画像を生成する。段階的に画像を生成し、アテンションを当てながら生成していく。
105 citation
[984] StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks (2016)
Han Zhang, Tao Xu, Hongsheng Li, Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, Dimitris Metaxas
2016
2段階のGANでテキストからの画像生成。すごい。
NA
[985] Sim-to-Real via Sim-to-Sim: Data-efficient Robotic Grasping via Randomized-to-Canonical Adaptation Networks (2018)
Stephen James, Paul Wohlhart, Mrinal Kalakrishnan, Dmitry Kalashnikov, Alex Irpan, Julian Ibarz, Sergey Levine, Raia Hadsell, Konstantinos Bousmalis
2018
Imperial College London, Google X, Google Brain, DeepMind
sim2simで、シミュレータの映像を正準系に直し、訓練。実世界の映像も、同じように正準系に直して動かす。ゼロショットで70%の把持。5000回で91%。
NA
[986] Recurrent World Models Facilitate Policy Evolution (2018)
David Ha, Jurgen Schmidhuber
2018
Google Brain, IDSIA
世界モデルのモデルと同じRNNを使って、得られた特徴量を使ったポリシーを進化的な方法で作る。
NA
[987] Deep Face Recognition: A Survey (2018)
Mei Wang, Weihong Deng
2018
Beijing University of Posts and Telecommunications
顔認識のサーベイ。2014年のDeepFaceから、2018年のArcfaceやRing lossまで、損失関数、アーキテクチャ、訓練データなどの比較。また、データセットの進展。使用する目的の分類など。よくまとまっている。
292 citation
[988] Aggregated Residual Transformations for Deep Neural Networks
2016
Saining Xie, Ross Girshick, Piotr Dollar, Zhuowen Tu, Kaiming He
UC San Diego, FAIR
ResNeXt。
ILSVRC2016分類タスクで2位。ResNetにInceptionの考え方を取り入れたもの。
25 citation
[989] Fader Networks:Manipulating Images by Sliding Attributes (2017)
G. Lample et al.
NIPS2017
77 citation
[990] beta-VAE: Learning Basic Visual Concepts with a Constrained Variational Framework
Irina Higgins, Loic Matthey, Arka Pal, Christopher Burgess, Xavier Glorot, Matthew Botvinick, Shakir Mohamed, Alexander Lerchner
ICLR2017 poster
Google DeepMind
VAEのKL項の係数を1ではなくβ>1にする。強い制約になるので、よりdisentangleされる。
37 citation
[991] A Distributional Perspective on Reinforcement Learning (2017)
a
ICML2017
NA
[992] Training Neural Networks with Local Error Signals (2019)
Arild Nøkland, Lars H. Eidnes
ICML 2019
Trondheim, Norway
ローカルな計算だけで誤差逆伝搬のようなことができる。ローカルなブロックごとに1レイヤーのネットワークを作り、(1) Yの出力の相関行列と、ネットワークの出力の相関行列の類似度のロス、(2) Yの出力とネットワークの出力のクロスエントロピーのロスという2つを使う。エージェント的なアーキテクチャで達成できるという証左。
NA
[993] A guide to deep learning in healthcare
2019
NA
[994] Learnability can be undecidable | Nature Machine Intelligence (2019)
Shai Ben-David, Pavel Hrubeš, Shay Moran, Amir Shpilka and Amir Yehudayoff
Nature Machine Intelligence 2019
U. Waterloo, Institute of Mathematics of the Academy of Sciences of the Czech Republic
学習と圧縮の関係。VC次元のような学習可能性を表す指標がないことを示す。ゲーデルの不完全性定理を使う。
NA
[995] Recent Advances in Autoencoder-Based Representation Learning
2018
オートエンコーダをベースにする表現学習のアプローチについてサーベイ。disentanglement(もつれをひもとくこと)や、素性の階層的組織などのメタプライアを考え(Bengioのもののいくつか)この観点から整理する。特に、正則化に関して、事後分布の正則化、エンコーダーとデコーダーの分布の因子化、構造的な事前分布の導入などに整理している。
NA
[996] A Convergence Theory for Deep Learning via Over-Parameterization (2018)
Z. A-Zhu, Y. Li, Z. Song
2018
MSR, Stanford U., UT-Austin
DLの収束について。SGDは、多項式時間で大域的な最適解を見つけることができる。入力が縮退していないことと、ネットワークが過剰にパラメータ化していることという2つの仮定だけを置いて証明できる。
NA
[997] Forward Modeling for Partial Observation Strategy Games – A StarCraft Defogger (2018)
Gabriel Synnaeve, Zeming Lin, Jonas Gehring, Dan Gant, Vegard Mella, Vasil Khalidov, Nicolas Carion, Nicolas Usunier
NeurIPS 2018
Facebook
defogging(霧をはらす)問題を状態推定と将来の状態予測の問題として定式化する。エンコーダ・デコーダネットワークを使い、代理的なタスクとベースラインで、ゲームのルールや高次のダイナミクスにアクセスできることを示す。CNNとRNNを統合して、空間的・連続的な相関を見つけ、StarCraft, BooldWarでうまくプレイする。
NA
[998] Visual Curiosity: Learning to Ask Questions to Learn Visual Recognition (2018)
Jianwei Yang, Jiasen Lu, Stefan Lee, Dhruv Batra, Devi Parikh
CoRL 2018
Georgia Tech, FAIR
現実世界では、知的エージェント(ロボット)が、よく分からない物体や属性、関係性に出会うことが避けられない。そこで、視覚的な好奇心をもち、人間に質問をするようなエージェントを開発した。例えば、「赤い立方体の左にあるものは何?」のような質問。
質問をすること自体を強化学習として捉えて学習する。
NA
[999] PyText: A seamless path from NLP research to production (2018)
Ahmed Aly, Kushal Lakhotia, Shicong Zhao, Mrinal Mohit, Barlas Oguz, Abhinav Arora, Sonal Gupta, Christopher Dewan, Stef Nelson-Lindall, Rushin Shah
2018
NA
[1000] A Style-Based Generator Architecture for Generative Adversarial Networks
2018
NA
[1001] Why should i trust you?: Explaining the predictions of any classifier
KDD2016
NA
[1002] NICE: non-linear independent components estimation (2014)
Laurent Dinh, David Krueger, Yoshua Bengio
2014
U. Montreal
VAEに似た生成モデル。対数尤度を直接計算。
NA
[1003] Toward an AI Physicist for Unsupervised Learning (2018)
Tailin Wu, Max Tegmark
2018
MIT
AI物理学者というタイトル。観測を最も単純に説明する理論を求める。Divide-and-conquerで小さい領域から求める。一応、ディープラーニングの進展を背景にしていると書いているが、シミュレータ上でいろいろな物理量を変化させたりして、オブジェクトの座標をそのまま使っているようで、昔からある研究とそれほど違いが出てないように思う。やりたいことは分かるが、気持ちが先走りすぎている印象。
NA
[1004] Random synaptic feedback weights support error backpropagation for deep learning (2016)
Timothy P Lillicrap, Daniel Cownden, Douglas B Tweed, and Colin J Akerman
Nature Communications, 7, 2016.
NA
[1005] Neuronal Capacity (2018)
Pierre Baldi, Roman Vershynin
NIPS2018
UC Irvine
ニューラルネットワークの容量を、実現できる関数の数の対数で定義する。
NA
[1006] Are GANs Created Equal? A Large-Scale Study (2018)
Mario Lucic, Karol Kurach, Marcin Michalski, Olivier Bousquet, Sylvain Gelly
NIPS 2018
Google Brain
MM GAN, NS GAN, LS GAN, WGAN, WGAN GP, DRAGAN, BEGAN, VAEについて、大規模な評価実験をしている。データセットによって良いものが異なる。NS GANとか割と良さそうだが。
NA
[1007] Natasha 2: Faster Non-Convex Optimization Than SGD (2018)
Zeyuan Allen-Zhu
NIPS 2018
Microsoft Research AI
SGDの問題点は、鞍点を避ける方法がランダム性しかないこと、鞍点に近づかないようにできないのかということ。それを解決する。
関数fのヘシアンの負の固有値を計算し、鞍点を避ける良い方向を見つける。ヘシアンの計算は、実は計算量がそれほど大きくない。
NA
[1008] Visualizing the Loss Landscape of Neural Nets (2018)
Hao Li, Zheng Xu, Gavin Taylor, Christoph Studer, Tom Goldstein
NIPS 2018
U. Maryland, USNA, Cornell U.
可視化の手法を用いて、例えばresnetがなぜスキップコネクションありだとうまくいくのかを図示する。スケールに対応するためにフィルター正規化という手法を提案する。
NA
[1009] Glow: Generative Flow with Invertible 1x1 Convolutions (2018)
Diederik P. Kingma, Prafulla Dhariwal
NIPS 2018
OpenAI
Kingmaの新作で重要。GANやVAEと同じく、生成モデルのひとつであるflow。これまで、NICE(Dinh 2014), RealNVP(Dinh 2016)とあったが、それを拡張するもの。かなりきれいな画像を生成できている。
xからzへの変換が一連の変換のステップから構成されるとし、ひとつのステップがactnorm(バッチ正規化のようなもの)、可逆1x1 conv、アフィンカップリング層から成る。これを32個重ね、さらに戻すようなものを入れながら3回重ねる。
NA
[1010] Gradient Descent for Spiking Neural Networks (2018)
Dongsung Huh, Terrence J. Sejnowski
NIPS 2018
Salk Institute, CA
スパーキングニューラルネットの勾配降下のモデル。検証はトイプロブレム。
NA
[1011] Multiplicative Weights Updates with Constant Step-Size in Graphical Constant-Sum Games
NIPS 2018
NA
[1012] Adversarially Robust Generalization Requires More Data (2018)
Ludwig Schmidt, Shibani Santurkar, Dimitris Tsipras, Kunal Talwar, Aleksander Madry
NIPS 2018
UCB, MIT, Google Brain
敵対的にロバストな学習を汎化の観点から分析する。ε以内の近傍で間違えないように訓練する、ロバスト最適化の方法を用いると、通常の訓練よりもデータセットによっては大きな精度の差が出る。ガウス分布、ベルヌーイ分布等を仮定して分析。しきい値モデルが良い性能。
NA
[1013] Stochastic Cubic Regularization for Fast Nonconvex Optimization (2018)
Nilesh Tripuraneni, Mitchell Stern, Chi Jin, Jeffrey Regier, Michael I. Jordan
NIPS 2018
UCB
立方正則化ニュートン法という古典的なアルゴリズムの確率版。鞍点を効率的に避け、局所最適をO(ε^-3.5)で見つける。(SGDがO(ε^-4))
テイラー展開で3次の項まで見る方法。MNISTで実験。
NA
[1014] Isolating Sources of Disentanglement in Variational Autoencoders (2018)
Ricky T. Q. Chen, Xuechen Li, Roger Grosse, David Duvenaud
NIPS 2018
U. Toronto
VAEで潜在変数間の相関を表すような項をELBOの式のなかで作り出す。それぞれのサンプルがN個の確率変数のどれと関係しているかを表すようにし、それをつかって相互情報量を定義する。β-TCVAE(トータル相関VAE)。
NA
[1015] Adversarial vulnerability for any classifier
NIPS 2018
NA
[1016] NEON2: Finding Local Minima via First-Order Oracles
NIPS 2018
NA
[1017] Gradient Sparsification for Communication-Efficient Distributed Optimization
NIPS 2018
2 citation
[1018] Neural Ordinary Differential Equations (2018)
Tian Qi Chen, Yulia Rubanova, Jesse Bettencourt, David Duvenaud
NIPS 2018
U. Toronto
レスネットとかリカレントネットのようなものは層が離散。層を離散から連続にしたモデル。面白い。通常の層は、連續変換のオイラーの離散化とみなせるのだそうだ。精度はそれほど変わらないけど、メモリが少なくて済むとの主張。誤差逆伝搬のところに工夫が必要。
NA
[1019] Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis
NIPS 2018
NA
[1020] Neural Voice Cloning with a Few Samples
NIPS 2018
NA
[1021] Neural Architecture Search with Bayesian Optimisation and Optimal Transport (2018)
Kirthevasan Kandasamy, Willie Neiswanger, Jeff Schneider, Barnabás Póczos, Eric P Xing
NIPS 2018
CMU
ニューラルネットワークのアーキテクチャの探索にベイズ最適化を使う。NASBOTとよぶ。ニューラルネットワークのアーキテクチャにおける距離の尺度を作り、最適輸送の問題として解く。
NA
[1022] Robust Learning of Fixed-Structure Bayesian Networks
NIPS 2018
NA
[1023] Recurrent Relational Networks (2018)
Rasmus Berg Palm, Ulrich Paquet, Ole Winther
NIPS 2018
Technical University of Denmark, DeepMind
数独を解くようなネットワーク。それぞれのマス目がユニットで、相互に接続されたリカレントネットワーク。
NA
[1024] Online Learning with an Unknown Fairness Metric
NIPS 2018
NA
[1025] Lipschitz-Margin Training: Scalable Certification of Perturbation Invariance for Deep Neural Networks
NIPS 2018
NA
[1026] Bayesian Adversarial Learning
NIPS 2018
NA
[1027] cudnn: Efficient primitives for deep learning
2014
NA
[1028] Stein Variational Policy Gradient
2017
NA
[1029] Quantum algorithms for supervised and unsupervised machine learning (2013)
Seth Lloyd, Masoud Mohseni, Patrick Rebentrost
2013
MIT, Google
量子計算は、N次元のベクトルをM個のクラスタに割り当てる問題を、通常ならMNに関する多項式時間なのが、MNに関する対数時間に減らすことができる。なので、ベクトル計算を伴う問題を、指数的な高速化ができる。
NA
[1030] Deep Patient: An Unsupervised Representation to Predict the Future of Patients from the Electronic Health Records
Scientific Reports 2016
NA
[1031] Learning Awareness Mmodels (2018)
Brandon Amos, Laurent Dinh, Serkan Cabi, Thomas Rothorl, Sergio Gomez Colmenarejo, Alistair Muldal, Tom Erez, Yuval Tassa, Nando de Freitas, Misha Denil
2018
CMU, U. Montreal, DeepMind, CIFAR
身体の信号だけから周りのオブジェクトの表現を学習するようなモデル。シミュレータとリアルなロボットの手で実験。
NA
[1032] Learning to Dress: Synthesizing Human Dressing Motion via Deep Reinforcement Learning
SIGGRAPH 2018
NA
[1033] Large-Scale Study of Curiosity-Driven Learning (2019)
Yuri Burda, Harri Edwards, Deepak Pathak, Amos Storkey, Trevor Darrell, Alexei A. Efros
2018, ICLR2019
OpenAI, UCB, U. Edinburgh
ピクセル予測、ランダムな特徴の予測、VAE, 逆モデル(行動予測)などの内的な動機を入れて、さまざまなタスクで実験。ATARI, スーパーマリオ、ロボスクールジャグリング、蟻ロボット、ピンポンをプレイするマルチエージェントなど。内的な動機だけでもゲームが解けるようになることもある。
NA
[1034] Exploration by Random Network Distillation (2018)
Yuri Burba, Harrison Edwards, Amos Storkey, Oleg Klimov
2018
OpenAI
ENDボーナスというのを与える。訓練されたネットワークをランダムに初期化されたネットワークを教師として蒸留する。(謎)。いままでに見たことのない状況であれば予測誤差が大きくなるので、内的報酬として使える。
NA
[1035] State Representation Learning for Control: An Overview
2018
Timothée Lesort, Natalia Díaz-Rodríguez, Jean-François Goudou, and David Filliat
Universite Paris Saclay
状態表現学習のサーベイ。分かりやすい。DL輪読会のスライドがもっと分かりやすい。
NA
[1036] Face2Face: Real-time Face Capture and Reenactment of RGB Videos (2016)
Justus Thies, Michael Zollhofer, Marc Stamminger, Christian Theobalt, Matthias Nießner
CVPR2016
U. Erlangen-Nuremberg, Max-Planck, Stanford
密なマーカーなしの顔のperformanceキャプチャの技術をつかって、ある人の表情を別の人(CGではなく)に割り当てる。facial reenactment(顔の再現)。
フレームごとに、ポーズ、光、表情を取り出し、人のidentityはそのままに、同じようなポーズ、光、表情になるように口元の検索をして合成。DeepFakeの技術になった。
NA
[1037] Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery (2017)
Thomas Schlegl, Philipp Seebock, Sebastian M. Waldstein, Ursula Schmidt-Erfurth, and Georg Langs
IPIM 2017
Medical U. Viennna, Austria
ANOGAN。DCGANを使って医用画像の異常検知。生成スコアと識別スコアの足し合わせで異常度を判定。
NA
[1038] Imagination Improves Multimodal Translation (2017)
Desmond Elliott and Akos Kadar
IJCNLP 2017
U. Amsterdam and Tilburg U.
冨山君のと同じ、マルチモーダルな翻訳。ソース文が入る双方向RNNの隠れ層と、画像の隠れ層が共有された共有エンコーダになっている。冨山君のより若干良い。
NA
[1039] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
2018
Google AI Language
12個の自然言語処理のタスクでSOTA。GLUE, MultiNLI, SQuAD質問応答などで人間のパフォーマンスを超える。双方向のtransformer。
NA
[1040] SFV: Reinforcement Learning of Physical Skills from Videos (2018)
Xue Bin Peng    Angjoo Kanazawa    Jitendra Malik    Pieter Abbeel    Sergey Levine
SIGGRAPH Asia 2018
UCB
姿勢推定で姿勢を得て、モーションリコンストラクションで参考になる動きを取り出し、それをもとに強化学習で模倣をする。バク転とか。他のキャラクターにも転移できる。動画は面白い。強化学習を使うなんてそんなに簡単にできるのかなと思いきやLevineさんだった。
NA
[1041] SCUT-FBP5500: A Diverse Benchmark Dataset for Multi-Paradigm Facial Beauty Prediction (2018)
Lingyu Liang, Luojun Lin, Lianwen Jin, Duorui Xie and Mengru Li
2018
South China U. of Technology, 広州、中国
美人データセット。5500枚の顔画像。男女、アジア人、白人。美人スコア1から5。18歳から27歳の60人のボランティアがつけた。クラウドソーシング。
NA
[1042] Adversarial Examples that Fool both Computer Vision and Time-Limited Humans (2018)
Gamaleldin F. Elsayed, Shreya Shankar, Brian Cheung, Nicolas Papernot, Alex Kurakin, Ian Goodfellow, Jascha Sohl-Dickstein
2018
Google Brain
敵対的な例が人間にも通用することを示す。70msとかの短時間で見せる。
NA
[1043] How convolutional neural network see the world - A survey of convolutional neural network visualization methods
2018
NA
[1044] Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology (1989)
Fred D. Davis
1989
U. Michigan
知覚された有用性と、知覚された使いやすさが、普及を予測する2つの変数である。両者とも、現在の使用と将来使うであろうことに高い相関がある。メール、エディタ、ビジネスチャートシステム、ペイントプログラムなどを比較。
NA
[1045] Relational inductive biases, deep learning, and graph networks (2018)
Peter W. Battaglia, Jessica B. Hamrick, Victor Bapst, Alvaro Sanchez-Gonzalez, Vinicius Zambaldi, Mateusz Malinowski, Andrea Tacchetti, David Raposo, Adam Santoro, Ryan Faulkner, Caglar Gulcehre, Francis Song, Andrew Ballard, Justin Gilmer, George Dahl, Ashish Vaswani, Kelsey Allen, Charles Nash, Victoria Langston, Chris Dyer, Nicolas Heess, Daan Wierstra, Pushmeet Kohli, Matt Botvinick, Oriol Vinyals, Yujia Li, Razvan Pascanu
2018
DeepMind, Google Brain, MIT, U. Edinburgh
DLはエンドトゥエンドだが、そういう話ではなく、むしろどのように関係上のバイアスを入れるかが大事。特に、グラフネットワーク、グラフ上で動くニューラルネットワークを紹介する。
Relationalネットワーク、Deep setなどもグラフネットワークの枠組みで表現できる。
かなり思索的でサーベイもしっかりした論文。
NA
[1046] Dynamical Isometry and a Mean Field Theory of CNNs: How to Train 10,000-Layer Vanilla Convolutional Neural Networks (2018)
Lechao Xiao, Yasaman Bahri, Jascha Sohl-Dickstein, Samuel S. Schoenholz, Jeffrey Pennington
2018
CNNの動的等長と平均場定理。CNNをスキップコネクションとかバッチ正規化なしに、初期化の工夫だけで1000層で学習できる。この初期化は、信号伝搬の平均場定理と、動的等長、つまり入出力のヤコブ行列の特異値の平衡の条件付けを使う。
NA
[1047] Taskonomy: Disentangling Task Transfer Learning (2018)
Amir R. Zamir, Alexander Sax, William Shen, Leonidas Guibas, Jitendra Malik, Silvio Savarese
2018
Stanford U., UCB
CVPR best paper. 画像に関するタスクのタキソノミー。3Dエッジ、ポイントマッチング、リシェイディング、Z深さ、距離、などのタスク間の距離を、転移学習の精度で測る。
NA
[1048] Supervision via Competition: Robot Adversaries for Learning Tasks
2016
NA
[1049] Deep Clustering for Unsupervised Learning of Visual Features
2018
NA
[1050] GLoMo: Unsupervisedly Learned Relational Graphs as Transferable Representations (2018)
Zhilin Yang, Jake (Junbo) Zhao, Bhuwan Dhingra, Kaiming He, William W. Cohen, Ruslan Salakhutdinov, Yann LeCun
2018
CMU, NYU, FAIR, Google
これは面白い論文。ユニット間の関係性を表すグラフを教師なしで抽出して、それを転移する。グラフ予測器が2つのCNNの内積のような形でグラフを生成し、それを素性予測器のネットワークの層にフィードし、訓練する。そうすると、それをターゲットとなるタスク(ダウンストリームタスク)の層にも同様に埋め込むことができる。(たぶん言語や知識の仕組みに近いものを意識している。)言語タスクとビジョンタスクで実験。
NA
[1051] Recycle-GAN: Unsupervised Video Retargeting (2018)
Aayush Bansal, Shugao Ma, Deva Ramanan, and Yaser Sheikh1
2018
CMU, Facebook Reality Lab
リサイクルGAN。動画を対象にして、敵対的損失、サイクル損失と、再帰損失(時系列の次の時点を予測する)、リサイクル損失(サイクル損失と近いが写像先で時系列で先に進めてから戻す)を足し合わせて、損失関数を定義。時系列の予測器(次の時点の画像を予測)も同時に学習で得られる。オバマとトランプの顔の映像の変換など。
NA
[1052] A Unified Approach to Interpreting Model Predictions (2017)
Scott M. Lundberg, Su-In Lee
NIPS 2017
U. Washington
モデルの説明可能性を統合的に評価する仕組み。
既存の研究では、LIMEは、線形で近似したモデルと、説明したいモデルの誤差を最小化する。DeepLIFTは、ある素性があったときとなかったとき(参照値にしたとき)の差で素性の重要性を測る。古くからのShapley値推定では、(多重共線性に対応するため)素性の部分集合に対して、ある素性が付加されたときとされてないときでの差を測る。
つまり、既存研究で気にしていることをまとめると、性質1)局所的な正確性:説明モデルとオリジナルなモデルが同じような出力をしないといけない、性質2)ミッシングネス(ないこと性):なくてもよい素性は貢献が0、性質3)首尾一貫性:モデルが多少変わっても、素性の貢献は大きく変わってはいけない、となる。
これを含めたSHAP(SHapley Additive exPlanation)値を提案する。
NA
[1053] Large Scale GAN Training for High Fidelity Natural Image Synthesis (2018)
Andrew Brock, Jeff Donahue, Karen Simonyan
2018
Heriot-Watt U., DeepMind
BigGAN。SA-GAN(Self-attentionブロックを使ったもの、Zhang and Goodfellow 18)をベースに、バッチサイズを大きくし、truncationトリック(zを取り出すのをガウス分布ではなく、truncated normalにする)を使う。ImageNet ILSVRC2012と、JFT-300Mで実験。従来より圧倒的に良い。インセプションスコアが166.3, Frechetインセプション距離が9.6。
NA
[1054] Self-attention generative adversarial networks (2018)
Han Zhang, Ian Goodfellow, Dimitris Metaxas, and Augustus Odena
2018
Rutgers U., Google Brain
SAGANを提案。すべての特徴の場所からの手がかりで詳細が描かれる。生成器にスペクトラル正規化を適用。ImageNetデータセットで、インセプションスコアを36.8から52.2まで上げた。Frechetインセプション距離は、27.62だったものを18.65にした。
特徴マップから、1x1 convをしてそれを転置し、1x1 convをしたものと掛け合わせる。それがアテンションマップになり、全体の特徴マップ(1x1 convしたもの)とかけあわせる。これが自己アテンション特徴マップになる。これを識別器にも生成器にも使う。
NA
[1055] Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion (2010)
Pascal Vincent, Hugo Larochelle, Isabelle Lajoie, Yoshua Bengio, Pierre-Antoine Manzagol
JMLR 2010
積層オートエンコーダ
NA
[1056] The Perceptron: A Probabilistic Model for Information Storage and Orga- nization in the Brain (1958)
F. Rosenblatt
Pychological Review 1958
NA
[1057] Adaptive Subgradient Methods for Online Learning and Stochastic Optimization (2011)
John Duchi, Elad Hazan, Yoram Singer
JMLR 2011
AdaGradの提案
NA
[1058] Evolving simple programs for playing Atari games
2018
NA
[1059] Who Let The Dogs Out? Modeling Dog Behavior From Visual Data
2018
NA
[1060] Noise2Noise: Learning Image Restoration without Clean Data (2018)
Jaakko Lehtinen, Jacob Munkberg, Jon Hasselgren, Samuli Laine, Tero Karras, Miika Aittala, Timo Aila
2018
NVIDIA
さまざまなノイズを付与して再現を学習する。画像に上書きしたテキストを除去するとか。
NA
[1061] Learning and Querying Fast Generative Models for Reinforcement Learning (2018)
Lars Buesing, Theophane Weber, Sebastien Racaniere, S. M. Ali Eslami, Danilo Rezende, David P. Reichert, Fabio Viola, Frederic Besse, Karol Gregor, Demis Hassabis, Daan Wierstra
2018
DeepMind
モデルベースのRLは重要だが、環境の正確で効率的なモデルを作るのが難しい。ここでは生成モデルによって、コンパクトに状態を表すことを学習する、状態-空間モデルを提案する。VAE的、あるいは自己回帰的な状態のモデルをピクセルから学習する。
NA
[1062] Neural processes (2018)
Marta Garnelo, Jonathan Schwarz, Dan Rosenbaum, Fabio Viola, Danilo J. Rezende, S. M. Ali Eslami, Yee Whye Teh
2018
DeepMind
Conditional Neural Processの著者と同じだが、CNPよりもちょっと進んだモデル。潜在変数zを出して、そこからyが生成されるというグラフィカルモデルが分かりやすい。NPもCNPもGQNの一般化と考えられる。
1386 citation
[1063] Learning Deep Features for Scene Recognition using Places Database (2014)
Bolei Zhou, Agata Lapedriza, Jianxiong Xiao, Antonio Torralba, Aude Oliva
NIPS2014
NA
[1064] 3D ShapeNets: a deep representation for volumetric shapes
CVPR 2015
197 citation
[1065] Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling (2016)
Jiajun Wu, Chengkai Zhang, Tianfan Xue, William T. Freeman, Joshua B. Tenenbaum
NIPS 2016
MIT CSAIL
我々は、3Dオブジェクト生成の問題を研究する。我々は、容積畳み込みネットワークと生成的対立ネットの最近の進歩を利用して、確率的空間から3Dオブジェクトを生成する、3D生成的敵対ネットワーク(3D-Generative Adversarial Network)(3D-GAN)という新しいフレームワークを提案する。私たちのモデルの利点は3つあります。まず、従来のヒューリスティックな基準ではなく、敵対的な基準を使用することで、ジェネレータは暗黙的にオブジェクト構造をキャプチャし、高品質の3Dオブジェクトを合成できます。第2に、ジェネレータは、低次元確率空間から3Dオブジェクトの空間へのマッピングを確立するので、参照画像またはCADモデルなしでオブジェクトをサンプリングし、3Dオブジェクトマニホールドを探索することができる。第3に、敵対的弁別器は、監督なしに学習された強力な3D形状記述子を提供し、3D物体認識において幅広い用途を有する。実験により、我々の方法は高品質の3Dオブジェクトを生成し、教師なしに学習されたフィーチャは、教師付き学習方法に匹敵する3Dオブジェクト認識で印象的なパフォーマンスを達成することを実証する。
3D-GANを提案する。3つの利点がある。ひとつは、敵対的な評価を使うことで、生成器にオブジェクトの構造を暗黙的につかむことができ、高品質の3次元のオブジェクトを合成することができる。2つ目に、生成器は、低い次元の確率空間から3次元のオブジェクト空間へのマップを作り、3次元の多様体を探索できる。3つめに、識別機は強力な3次元の形の記述子を提供し、さまざまな応用に用いることができる。
85 citation
[1066] Unsupervised learning of 3d structure from images (2016)
D. J. Rezende, S. A. Eslami, S. Mohamed, P. Battaglia, M. Jaderberg, and N. Heess.
NIPS, 2016
84 citation
[1067] Perspective transformer nets: Learning single-view 3d object reconstruction without 3d supervision (2016)
X. Yan, J. Yang, E. Yumer, Y. Guo, and H. Lee.
NIPS, 2016
U. Michigan、Adobe, Google Brain
2Dから3Dの内部表現を得る。エンコーダ、デコーダのモデル。デコーダの最後にトランスフォーマがついていて、アフィン変換等。
62 citation
[1068] Towards Conceptual Compression (2016)
Karol Gregor, Frederic Besse, Danilo Jimenez Rezende, Ivo Danihelka, Daan Wierstra
NIPS2016
DeepMind
Convolutional DRAWというのを提案。情報量の点からも議論して、JPEG2000と同じくらいの圧縮ができる。
NA
[1069] Learning image representations tied to egomotion
2015
166 citation
[1070] Learning to see by moving (2015)
Pulkit Agrawal, Joao Carreira, Jitendra Malik
ICCV2015
2190 citation
[1071] Convolutional neural networks for sentence classification (2014)
Y. Kim
2014
NYU
引用数が非常に多い。CNNで文書分類を行う論文。Word2vec等のエンベディングを使い(ランダムでも良い)、コンボリューション、プーリングと行う。1層ずつのみ。シンプルだが、文書分類(文の分類)のタスクで最新に近い精度。
NA
[1072] Assessing the Scalability of Biologically-Motivated Deep Learning Algorithms and Architectures (2018)
Sergey Bartunov, Adam Santoro, Blake A. Richards, Geoffrey E. Hinton, Timothy P. Lillicrap
2018
DeepMind, U. Toronto, UCL
生物学的に可能なDLアルゴリズム(誤差逆伝搬の実現方法)をスケールさせてみたところ、うまくいかないことが分かった。LeCunやHinton, Bengio等が提案しているターゲット伝搬(TP)、Lillicrapらの提案しているフィードバック割当(FA)のいずれもうまくスケールしない。
NA
[1073] Equilibrium propagation: Bridging the gap between energy-based models and backpropagation
2017
NA
[1074] An approximation of the error backpropagation algorithm in a predictive coding network with local hebbian synaptic plasticity
2017
50 citation
[1075] Difference target propagation (2015)
Dong-Hyun Lee, Saizheng Zhang, Asja Fischer, and Yoshua Bengio
ECML/PKDD 2015
モントリオール大
誤差逆伝搬は、最近のDLの成功の駆動力だが、信用割当に関しては無限の効果(偏微分)に依存している。より深く、非線形な関数(例えば、パラメータ間の関係やコストが離散のときなど)に対して深刻な問題がある。生物的にありそうもない誤差逆伝搬を考えると、過去に同様のクレジット割当の働きを果たす方法が提案されている。ここでは、DNにおけるクレジット割当に対して、ターゲット伝搬とよぶ新しい方法を提案する。この方法のアイディアは、微分ではなくターゲットを計算することである。ターゲットは、勾配のように、後ろ方向に伝搬する。ターゲットの伝搬は、各層のオートエンコーダーに依拠する。誤差逆伝搬と違って、実数ではなく、確率的なビットでも成り立つ。誤差ターゲット伝搬とよぶ、オートエンコーダの不完全性の線形補間がとても有用であることを示す。重要論文。
keyword: 進んだモデル
NA
[1076] Random feedback weights support learning in deep neural networks. (2014)
Timothy P. Lillicrap, Daniel Cownden, Douglas B. Tweed, and Colin J. Akerman.
CoRR, abs/1411.0247, 2014.
オックスフォード大、トロント大
誤差逆伝搬は、誤差に貢献した程度で、責任をニューロンに割りあてるが、エラーに行列の掛け算をしなければならない。これは脳では不可能と考えられている。ここでは、とても簡単な方法を提案する。エラーの信号をランダムなシナプスの重みをかけることで、責任を割り当てる。ネットワークは、ランダムなフィードバックコネクションを通じて送られた信号から有益な情報を抜き出して学習することができる。脳でも実装可能である。(ランダムというのが不明。)
keyword: 進んだモデル
NA
[1077] FaceForensics: A Large-scale Video Data Set for Forgery Detection in Human Faces
Andreas Rossler, Davide Cozzolino, Luisa Verdoliva, Christian Riess, Justus Thies, Matthias Nießner
U. Munich, U. Federico II of Naples, U. Erlangen-Nuremberg
2018
顔を操作した画像かそうでないかを見分けるためのデータセット。1004の動画から50万フレームを取り出し、Face2Faceで顔の表情をいじる。
NA
[1078] Massively Parallel Video Networks (2018)
Joao Carreiray, Viorica Patrauceany, Laurent Mazare, Andrew Zisserman, Simon Osindero
2018
DeepMind
動画の行動認識や人間キーポイント局在化などを行うのに、並列化をする。レイヤーごとの並列化を工夫し(徐々にレイヤーがあがるような並列化をする、予測的深さ並列化)、時計のサイクルを複数に設定し、スキップコネクションを入れる、蒸留を行う、時間のフィルター(空間方向だけでなく時間方向にも広げる)を入れるなどを行う。
NA
[1079] Human-level performance in first-person multiplayer games with population-based deep reinforcement learning (2018)
Max Jaderberg, Wojciech M. Czarnecki, Iain Dunning, Luke Marris, Guy Lever, Antonio Garcia Castaneda, Charles Beattie, Neil C. Rabinowitz, Ari S. Morcos, Avraham Ruderman, Nicolas Sonnerat, Tim Green1, Louise Deason, Joel Z. Leibo, David Silver, Demis Hassabis, Koray Kavukcuoglu, Thore Graepel
2018
DeepMind
面白い。チームでプレイするゲームを学習する。チームのスコアを最大にするが、他のエージェントの方策も含まれてしまうので、内的な報酬を入れるのと、いろんなエージェントの方策を使ってロバストに学習する。
NA
[1080] Relational recurrent neural networks (2018)
Adam Santoro, Ryan Faulkner, David Raposo, Jack Rae, Mike Chrzanowski, Théophane Weber, Daan Wierstra, Oriol Vinyals, Razvan Pascanu, Timothy Lillicrap
2018
DeepMind
Relation Network (RN)のような考え方を入れたLSTM。関係記憶コア(Relational Memory Core; RMC)というのを提案。複数ヘッド内積アテンション(multi-head dot product attention; MHDPA)というのを使う。かなり複雑。ミニパックマンや言語モデリングで大きな向上。
NA
[1081] Relational Deep Reinforcement Learning (2018)
Vinicius Zambaldi, David Raposo, Adam Santoro, Victor Bapst, Yujia Li, Igor Babuschkin, Karl Tuyls, David Reichert, Timothy Lillicrap, Edward Lockhart, Murray Shanahan, Victoria Langston, Razvan Pascanu, Matthew Botvinick, Oriol Vinyals, Peter Battaglia
2018
DeepMind
関係学習と強化学習を組み合わせる。普通はCNNとかが入るところに、関係学習のモジュールを入れる。で、価値Vとか方策πを出力する。学習が早くなる。
NA
[1082] Meta-Learning by the Baldwin Effect (2018)
Chrisantha Fernando, Jakub Sygnowski, Simon Osindero, Jane Wang, Tom Schaul, Denis Teplyashin, Pablo Sprechmann, Alexander Pritzel, Andrei A. Rusu
2018
DeepMind
面白い。メタ学習とボールドウィン効果。MAML(モデル不可知のメタ学習)とボールドウィン効果が同じと言っている。そして、MAMLが使えないような微分不可能な状況であってもボールドウィン効果は役に立つと主張している。
NA
[1083] Deep Video Portraits
2018
38 citation
[1084] Synthesizing Obama: Learning Lip Sync from Audio (2017)
Supasorn Suwajanakorn, Steven M. Seitz, Ira Kemelmacher-Shlizerman
SIGGRAPH 2017
NA
[1085] Playing hard exploration games by watching YouTube (2018)
Yusuf Aytar, Tobias Pfaff, David Budden, Tom Le Paine, Ziyu Wang, Nando de Freitas
2018
DeepMind
YouTubeから学習する。まず、動画から共通の表現へのマッピングを学習する。次に、ひとつのYouTube動画をこの表現に埋め込み、エージェントが人間のゲームプレイを真似することを促進するような報酬関数を作る。。Montezuma's revengeとかPitfallのような難しいゲームで、人間を超えるパフォーマンすを出すことができる。
NA
[1086] Time-contrastive networks: Selfsupervised learning from multi-view observation
2017
NA
[1087] Deep learning for health informatics
2017
NA
[1088] Recurrent Neural Network Training with Dark Knowledge Transfer (2016)
Zhiyuan Tang, Dong Wang, Zhiyong Zhang
2016
Tsinghua U., Tsinghua National Laboratory
RNNを使った蒸留。
290 citation
[1089] Towards evaluating the robustness of neural networks (2017)
Nicholas Carlini, David Wagner
Security and Privacy 2017
UCB
蒸留によって、敵対的攻撃が成功する確率を95%から0.5%に下げることができることが従来の研究で知られている。本研究では、3つの新しい攻撃によって、蒸留しているものもしていないものも100%攻撃が成功することを示す。3つの距離尺度に基づいた最適化で敵対的なノイズを求める。変数の変換とか、クリップされた勾配とかいくつかの工夫を入れている。
724 citation
[1090] Recurrent neural network regularization (2014)
Wojciech Zaremba, Ilya Sutskever, Oriol Vinyals
2014
NYU, Google Brain
RNN(LSTM)でドロップアウトを使うとき、「リカレントでない」コネクションにだけ使うのが良い。つまり、入力ゲート、出力ゲート、忘却ゲート等はドロップアウトを使うが、状態から状態への遷移のところは使わないのが良い。
NA
[1091] A survey on deep learning in medical image analysis (2017)
Geert Litjens, Thijs Kooi, Babak Ehteshami Bejnordi, Arnaud Arindra Adiyoso Setio, Francesco Ciompi, Mohsen Ghafoorian, Jeroen A.W.M. van der Laak, Bram van Ginneken, Clara I. S´anchez
2017
Radboud U. Medical Center
医用画像に関するディープラーニングの適用の詳細なサーベイ。300以上の論文を調べ、手法別、タスク別、部位別に詳細に書かれている。
NA
[1092] A Survey of Deep Learning Techniques for Mobile Robot Applications (2018)
Jahanzaib Shabbir and Tarique Anwer
2018
ロボットへのDL適用のサーベイだが、あまり整理されていない。
NA
[1093] On the number of linear regions of deep neural networks (2014)
Guido Montúfar, Razvan Pascanu, Kyunghyun Cho, Yoshua Bengio
2014
NA
[1094] How to construct deep recurrent neural networks (2013)
R. Pascanu et al.
2013
NA
[1095] Shallow vs. deep sum-product networks (2011)
Olivier Delalleau, Yoshua Bengio
NIPS 2011
U. Montreal
Sum-productネットワーク(和積ネットワーク)というのを考える。浅いネットワークは、ある関数を表すのに、指数的に多くのユニットが必要になる。深いネットワークは、線形な増加。FとGという2つの関数の族を考えている。Gは下のレイヤーの任意の長さの変数を用いることができるという設定。
NA
[1096] Scaling learning algorithms towards AI (2007)
Y. Bengio and Y. LeCun
2007
U. Montreal, NYU
まだDLがほとんど注目されていなかったころの論文。CNNとHintonのグリーディな層の積み上げくらい。なので、いかに深いネットワークが重要で、浅い関数を使ったアーキテクチャには限界があるかを説明している。知覚や制御などの動物でもできることが重要。深い関数と同じものを浅い関数で表そうとすると、非常に多くのコンポネントが必要になる。
NA
[1097] Gradient-based hyperparameter optimization through reversible learning
2015
72 citation
[1098] Data-dependent initializations of Convolutional Neural Networks (2016)
Philipp Kraehenbuehl, Carl Doersch, Jeff Donahue, Trevor Darrell
ICLR 2016
UCB, CMU
多くの研究は、ImageNetでプリトレインしたモデルを使って、特定のタスクにファインチューンする。初期値の重みを間違うと、勾配の消失や爆発、あるいは収束の低下につながる。この論文では、データに依存した早くて簡単な初期化の手続きを提案する。
19 citation
[1099] Overcoming Catastrophic Forgetting by Incremental Moment Matching (2017)
a
NIPS2017
NA
[1100] Overcoming catastrophic forgetting in neural networks
2016, PNAS 2017
NA
[1101] Meta-learning with memory-augmented neural networks
ICML 2016
NA
[1102] Meta networks
ICML 2017
46 citation
[1103] CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning
a
a
a
https://arxiv.org/abs/1711.05225
206 citation
[1104] Neural Architecture Search with Reinforcement Learning (2017)
Barret Zoph, Quoc Le
ICLR2017
Google Brain
ネットワークのパラメータを強化学習とLSTMで探索している。LSTMはちょっと特殊で、数値の計算木をエンコードしているようだ。Cifar10とPennTreeBankのデータセットで、これまでの最高に近い精度を出している。が、途中のLSTMのところを結構いじっていて、ちょっと微妙な感じはする。でも面白い。
Related Workのところに、進化計算とパラメータチューニングの話があって黒滝君の研究の参考に。
keyword: メタ学習
108 citation
[1105] Optimization as a Model for Few-Shot Learning (2017)
Sachin Ravi, Hugo Larochelle
ICLR2017
Twitter
ワンショット学習を、LSTMで行う。複数の異なるタスクのデータセットを与えられるのをLSTMに見立てて、学習する。
keyword: メタ学習
242 citation
[1106] Adversarial Feature Learning
Jeff Donahue, Philipp Krähenbühl, Trevor Darrell
ICLR2017 poster
256 citation
[1107] Bidirectional Attention Flow for Machine Comprehension
Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, Hannaneh Hajishirzi
ICLR2017 poster
90 citation
[1108] Designing Neural Network Architectures using Reinforcement Learning
Bowen Baker, Otkrist Gupta, Nikhil Naik, Ramesh Raskar
ICLR2017 poster
MIT
CNNの構造を強化学習で見つける。状態が、1層目の設定、2層目の設定等で、アクションが各層に何を選ぶか、全体の報酬が精度になる。Q学習を使う。SVHNやCIFAR-10、MNISTなどで実験。SoTAに近い精度。
keyword: メタ学習
1526 citation
[1109] Random search for hyper-parameter optimization (2012)
J. Bergstra and Y. Bengio
JMLR 2012
U. Montreal
ハイパーパラメータの最適化をする際に、グリッドサーチやマニュアルサーチよりも、ランダムサーチのほうが良い。その理由は、ほとんど効かない次元があること。それがタスクによって異なること。また実際的には、いつでもやめられる、止まっても良いなど、さまざまな良い点もある。7つのタスクの4つで従来のグリッドサーチ・マニュアルサーチと同じ、1つでそれを上回る結果だった。
keyword: メタ学習
477 citation
[1110] An Empirical Exploration of Recurrent Network Architectures (2015)
Rafal Jozefowicz, Wojciech Zaremba, Ilya Sutskever
ICML2015
Google
いろんなRNNのアーキテクチャを探索的に調べている。面白い。
keyword: メタ学習
476 citation
[1111] Wide residual networks (2016)
a
2016
77 citation
[1112] Priors for Infinite Networks (1994)
Radford M. Neal
1994
U. Toronto
ニューラルネットワークにはpriorを使えない。無限に幅の広い隠れ層が1層のニューラルネットワークは、(任意の関数を近似できるが)ガウス過程と見なせる。
46 citation
[1113] Towards a Neural Statistician
Harrison Edwards, Amos Storkey
ICLR2017 poster
U. Edinburgh
複数のデータ点ではなく複数のデータセットを扱う。共通のモデルを仮定し、文脈cによって潜在変数zが影響を受け、それによって変数xが生成されると考える。Spatial MNISTやOMNIGLOTのデータセットで実験。Fewショット学習のひとつ。
1 citation
[1114] Few-shot generative modelling with generative matching networks (2018)
Sergey Bartunov and Dmitry P. Vetrov
AISTAT 2018
National Research University Higher School of Economics (Russia), 今はDeepMind
事前に多くのデータがあって、似たようなドメインで少ないデータがあったときに早く学習する。そのために生成的マッチングネットワーク(GMN)を提案。潜在変数と新しいデータを両方とも別の空間に写像し、そこでの近さを取る。Omniglot dataset(50個の異なるアルファベット)で実験。
25 citation
[1115] Parallel multiscale autoregressive density estimation (2017)
Scott Reed, Aaron van den Oord, Nal Kalchbrenner, Sergio Gomez Colmenarejo, Ziyu Wang, Dan Belov, Nando de Freitas
ICML2017
DeepMind
画像を並列に生成する。PixelCNNだと順番に生成するので遅い。画像をいくつかのグループに分け、最初のグループが次のグループに影響するようにする。これまでと同等の生成の性能。
67 citation
[1116] Video Pixel Networks (2017)
Nal Kalchbrenner, A¨aron van den Oord, Karen Simonyan, Ivo Danihelka, Oriol Vinyals, Alex Graves, Koray Kavukcuoglu
2016, ICML2017
DeepMind
確率的な動画のモデル、ビデオピクセルネットワークを提案する。動画中の生のピクセルの値の離散同時確率を推定する。このモデルとニューラルアーキテクチャは、時間、空間と色の構造を反映し、4次元の依存チェインとしてエンコードする。最新のものを大きく上回り、ムービングMNISTベンチマークでもっともよい性能に近づいた。ロボットが押すベンチマークでも詳細なサンプルを生成することができた。
PixelCNNを基本としているので面白いのだけど、PixelCNNそのままではなくて、multiplicative unitというのが入って独特なものになっているのと、主要な手法と比較しておらず、評価実験が弱い。
218 citation
[1117] Proximal policy optimization algorithms
2017
J. Schulman, F. Wolski, P. Dhariwal, A. Radford, O. Klimov
6 citation
[1118] Extracting Automata from Recurrent Neural Networks Using Queries and Counterexamples (2018)
Gail Weiss, Yoav Goldberg, Eran Yahav
ICML2018
Technion, Haifa, Bar Ilan U.
RNNから決定有限オートマトン(DFA)を取り出す。L*アルゴリズムというのを使う。メンバーシップと、等価性だけを聞けると、それをもとにオートマトンを構成できるというものらしい。実験では、Tomita文法というものであればうまく取り出せるし、より深い再帰があるようなものでも高い精度で取り出せる。
1 citation
[1119] Instance Normalization: The Missing Ingredient for Fast Stylization
2016
Dmitry Ulyanov, Andrea Vedaldi, Victor Lempitsky
Skoltech, Yandex, U. Oxford
バッチではなくインスタンスごとに正規化する。
1 citation
[1120] The Mechanics of n-Player Differentiable Games
ICML2018
David Balduzzi, Sebastien Racaniere, James Martens, Jakob Foerster, Karl Tuyls, Thore Graepel
DeepMind, U. Oxford
複数の相互作用のある損失のときは、勾配降下が局所最適に至らない。ゲームにおける勾配降下の振る舞いはあまりよく理解されていないが、敵対的、あるいは複数目的のアーキテクチャが増えるなかで重要になっている。この論文では、一般的なゲームのなかの動態を理解しコントロールする方法を提案する。2つの要素に分かれ、ひとつは潜在的ゲームに関するもので、暗黙的な関数に関しての勾配降下とみなせるものである。もうひとつは、ハミルトニアンゲームに関するもので、保存則に従うようなものである。シンプレクティック勾配修正(SGA)と呼ばれる新しいアルゴリズムを提案する。
182 citation
[1121] HyperNetworks
David Ha, Andrew Dai, Quoc V. Le
ICLR2017 poster
Google Brain
RNNは重み共有をし、CNNは層ごとに別々である。中間がもっとあってもいい。
小さなNNで、CNNやRNNの重みを生成することを考える。少ないパラメータであるが精度のよいネットワークができる。
0 citation
[1122] Self-Consistent Trajectory Autoencoder: Hierarchical Reinforcement Learning with Trajectory Embeddings (2018)
John D. Co-Reyes, YuXuan Liu, Abhishek Gupta, Benjamin Eysenbach, Pieter Abbeel, Sergey Levine
ICML2018
UCB
SeCTAR(タイトル通り)の提案。軌跡を再構成するRNNによるエンコーダ・デコーダモデルを作る。エンコーダ・状態デコーダ・方策デコーダ。潜在空間zを得ることで、方策デコーダを使うと現在の状態に対してアクションを出せるようになる。これを使って、MPCで最適な経路を求める。方策πを、軌跡の分布のエントロピーを最大化するように選ぶことで探索的な行動を促進する。PPO(Proximal policy optimization)を用いる。シミュレータ上でナビゲーションやマニピュレーションの実験。
2 citation
[1123] Deep linear neural networks with arbitrary loss: All local minima are global (2018)
Thomas Laurent and James Von Brecht
ICML2018
Loyola Marymount University, Cal State U.
深層線形ネットワークで任意の微分可能な損失関数を考える。各レイヤーの幅が、出力あるいは入力よりも大きいときに、すべての局所最適解は大域的最適解である。ということを証明している。自明のような気も。
5 citation
[1124] On the Optimization of Deep Networks: Implicit Acceleration by Overparameterization (2018)
Sanjeev Arora, Nadav Cohen, Elad Hazan
ICML2018
Princeton U.
過度なパラメータが、モーメンタムやAdaGradのような働きをしていることを示している。
0 citation
[1125] Model-level Dual Learning
ICML2018
0 citation
[1126] Conditional Neural Processes (2018)
Marta Garnelo, Dan Rosenbaum, Chris J. Maddison, Tiago Ramalho, David Saxton, Murray Shanahan, Yee Whye Teh, Danilo J. Rezende, S. M. Ali Eslami
ICML 2018
DeepMind
DNNは関数近似として強力だが、いつもゼロから学習する。ベイジアンの手法、例えばガウス過程は、事前知識を活用し、テスト時に新しい関数の形をすぐに推論する。しかし、ガウス過程は計算量が高く、適切なプライアを設計することが難しい。この論文では、条件付きニューラル過程(CNP)とよぶニューラルモデルの族を提案する。CNPは、ガウス過程のような柔軟性を持ち、ニューラルネットワークのように構造化され勾配降下で訓練できる。
(x_i, y_i)からr_iを出す。これを平均をとってrとし、x_iとrからφ_iを出す(典型的にはガウス分布のパラメータ)。この2つの関数にNNを使う。
訓練は、データの一部から全部を予測することを行う。で2つの関数を学習する。
5 citation
[1127] A Compressed Sensing View of Unsupervised Text Embeddings, Bag-of-n-Grams, and LSTMs
Sanjeev Arora, Mikhail Khodak, Nikunj Umesh Saunshi, Kiran Vodrahalli
ICLR2018 poster
NA
[1128] Understanding deep learning requires understanding kernel learning
2018
0 citation
[1129] Improving Language Understanding by Generative Pre-Training (2018)
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever
2018
OpenAI
GPT論文。OpenAItransformer。最初に、教師なしのデータに関しての言語モデルの目的関数を置いて、ニューラルネットワークの初期のパラメータを学習する。次に、このパラメータを使って、ターゲットのタスクに教師ありで学習する。教師なしの部分はTransformerを使う。(Attention is all you need論文。)教師ありのときは、最終層を加えて用いる。自然言語推論、QA、文の類似性、分類など。
0 citation
[1130] Universal Language Model Fine-tuning for Text Classification (2018)
Jeremy Howard, Sebastian Ruder
2018
U. San Francisco, NUI Galway
ULMFitという深層のpre-trainedな言語モデル。多くの言語処理タスクで最新の記録。3層+Softmaxで、タスクごとに事前学習し、ターゲットのタスクには、徐々に解凍していく(gradual unfreezing)でファインチューン。
53 citation
[1131] Deep contextualized word representations (2018)
Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer
2018
Allen Institute for AI, U. Washington
ELMoの提案。2層の双方向LSTMで、キャラクターコンボリューション入り。さまざまなNLPタスクで最新の性能。WordNetは深層でなかったが深層にしたもの。重要論文。
6 citation
[1132] Few-shot autoregressive density estimation: Towards learning to learn distributions
2017
0 citation
[1133] Learning models for visual 3D localization with implicit mapping (2018)
Dan Rosenbaum, Frederic Besse, Fabio Viola, Danilo J. Rezende, S. M. Ali Eslami
2018
DeepMind
アテンションつきGQN。パッチ辞書というのを作って、カメラポーズとイメージのパッチ(8x8x3)を入れておく。これに対して、アテンションをかけて、ターゲットとなるカメラポーズが与えられると画像を出力するように学習する。
逆に、局在化をするために、画像からカメラポーズを出力する。このために、逆GQNというのを使う。
マインクラフトの映像で実験。
0 citation
[1134] Consistent Generative Query Networks (2018)
Ananya Kumar, S. M. Ali Eslami, Danilo J. Rezende, Morta Garnelo, Fabio Viola, Edward Lockhart, and Murray Shanahan
2018
DeepMind
GQNを時間も扱えるように改良したもの。これまでの動画予測は、順に生成する必要があった。この方法では、時間をクエリーとして画像を生成するので、共通の潜在変数に対して任意の時間の画像が生成できる。エンコーダは4層のCNN。で、DRAW(中はLSTM)で潜在変数zを得る。画像を描くレンダーネットワークはLSTMであり、zとvが毎回入力される。キーと値のペア(v, f)に対して一般的に適用できる。vが視点だったり時間だったり。fが画像。
0 citation
[1135] Encoding Spatial Relations from Natural Language (2018)
Tiago Ramalho, Tomas Kocisky, Frederic Besse, S. M. Ali Eslami, Gabor Melis, Fabio Viola, Phil Blunsom, Karl Moritz Hermann
2018
DeepMind
空間言語統合モデル(SLIM)。空間的な関係、例えば、「後ろ」とか「左」とかの表現を獲得する。GQNを使って、視点と文を入れ、内部表現を作り、新たな視点からの画像を予測する。画像を作るところはDRAW。
12 citation
[1136] A hierarchical predictive coding model of object recognition in natural images
2017
18 citation
[1137] Unsupervised Machine Translation Using Monolingual Corpora Only
Guillaume Lample, Alexis Conneau, Ludovic Denoyer, Marc'Aurelio Ranzato
ICLR2018 poster
FAIR, Sorbonne U., Paris
サイクルGANのような翻訳。ソースからソース、ターゲットからターゲットへのオートエンコーダ的な復元誤差の損失と、ソースからターゲットに翻訳した場合に復元する場合の誤差などなどを足し合わせたもの。パラレルコーパスがないにも関わらず、Multi30kとWMTでそれぞれ32.8, 15.1。
130 citation
[1138] Dualgan: Unsupervised dual learning for image-to-image translation
2017
62 citation
[1139] One-Shot Imitation Learning (2017)
Yan Duan, Marcin Andrychowicz, Bradly Stadie, Jonathan Ho, Jonas Schneider, Ilya Sutskever, Pieter Abbeel, Wojciech Zaremba
NIPS2017
Open AI
模倣学習の問題を、類似の模倣を何度もやった場合の教師あり学習と考える。考え方はとても重要。入力は、デモンストレーションと観測で、出力は適切な行動と置いて、学習する。デモンストレーションネットワーク(デモンストレーションを特徴量にする)、コンテキストネットワーク(デモンストレーションネットワーク上へのアテンション)、そしてマニピュレーションネットワークの3つから成る。実ロボットではなく、シミュレータ上のマニピュレータで実験している。
22 citation
[1140] Robust imitation of diverse behaviors
NIPS2017
419 citation
[1141] Context encoders: Feature learning by inpainting (2016)
Deepak Pathak Philipp Kr¨ahenb¨uhl Jeff Donahue Trevor Darrell Alexei A. Efros
CVPR2016
UCB
四角いパッチで画像をくり抜いても上手に復元できる。エンコーダ−デコーダモデルだが、エンコーダからの高次特徴量とデコーダに渡す高次特徴量を、デンスにつないだネットワークの構造。
153 citation
[1142] Precomputed real-time texture synthesis with markovian generative adversarial networks
ECCV 2016
7 citation
[1143] Machine Theory of Mind (2018)
Neil C. Rabinowitz, Frank Perbet, H. Francis Song, Chiyuan Zhang, S. M. Ali Eslami, Matthew Botvinick
ICML2018
DeepMind, GoogleBrain
心の理論ネットワーク。これを学習の問題に置き換える。観測者が、他のエージェントの行動をいかに少ないデータによってモデル化できるか。これをメタ学習の問題と捉える。ある種のワンショット模倣学習と言えるが、自分が高づおをする必要はない点が異なる。
キャラクターネット、心的状態ネット、予測ネットの3つから構成される。キャラクターネットの目的は、過去のエピソードからキャラクター埋め込みを得ることである。
心的状態ネットの役割は、現在のエージェントの状態を現在のエピソードから出すことである。
最後に、予測ネットの役割は、心的状態の埋め込みとキャラクター埋め込みを使って、エージェントのその後の行動を予測することである。
UNREALのフレームワークを使って実証している。
0 citation
[1144] Deep Predictive Coding Network with Local Recurrent Processing for Object Recognition (2018)
Kuan Han, Haiguang Wen, Yizhen Zhang, Di Fu, Eugenio Culurciello, and Zhongming Liu
2018
Purdue U.
予測コーディングの改良版。ほぼ同じ著者。下の方の層から順番にやっていく。局所的なリカレントモデルと言っている。グローバルなモデル(従来研究に当たる)のほうが良さそうな気もするが、系列を予測するモデルを作り、その誤差を予測する上位のモデルを作り、と順番にやるほうがいいということだろうか。精度は以前のものよりだいぶ良さそう。
2 citation
[1145] Deep Predictive Coding Network for Object Recognition (2018)
Haiguang Wen, Kuan Han, Junxing Shi, Yizhen Zhang, Eugenio Culurciello, Zhongming Liu
ICML2018
Purdue U.
予測コーディングの新しい形の提案。CNNの各レイヤーがバックワードのリンクと再帰結合を持っている。なんかシンプルだが良さそうなモデル。認識のときに徐々に確信度が高まってくる。学習も通常のCNNより早い。いいのではないか。
5 citation
[1146] Learning Representations and Generative Models for 3D Point Clouds (2018)
Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, Leonidas Guibas
ICML2018
Stanford U., U. Montreal
3Dポイントクラウドの生成モデル。2048個の点の3次元位置が入力される。オートエンコーダと混合ガウス分布が割と良い。W-GANとかと比較。3Dクラウドのいすとか机とかを再現する実験。
4 citation
[1147] Comparing Dynamics: Deep Neural Networks versus Glassy Systems (2018)
Marco Baity-Jesi, Levent Sagun, Mario Geiger, Stefano Spigler, G´erard Ben Arous, Chiara Cammarota, Yann LeCun, Matthieu Wyart, Giulio Biroli
ICML2018
NYU, EPFL, Kings College London
理論的な解析。グラスのシステムで使われる統計的物理の方法をDNNの動態の解析に用いる。訓練のときには、多くのフラットな方向のために動態は遅くなる。多くの場合、損失が0に近づくと、システムは底に散らばる。平均場のグラスシステムの動態と似ている面はあるが、障壁を超えるということがない点などにより、損失関数やエネルギーの景観は異なる。
5 citation
[1148] Augmented CycleGAN: Learning Many-to-Many Mappings from Unpaired Data (2018)
Amjad Almahairi, Sai Rajeswar, Alessandro Sordoni, Philip Bachman, Aaron Courville
ICML2018
MILA, MSR Montreal
サイクルGANに、潜在変数を入れる。これによって、確率的に画像を生成できる。線画の靴からいろいろなタイプの靴を生成するなど。潜在変数zの扱いがけっこうややこしい。
8 citation
[1149] Stochastic Video Generation with a Learned Prior (2018)
Emily Denton, Rob Fergus
ICML2018
NYU, FAIR
動画の生成を、VAE的にやるのだが、潜在変数も学習によって推移することを仮定。モデルとしては良さそうだが、結果はそれほど印象的でない。
22 citation
[1150] Unsupervised learning of disentangled and interpretable representations from sequential data (2017)
a
NIPS, 2017.
99 citation
[1151] What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision? (2017)
Alex Kendall, Yarin Gal
2017
78 citation
[1152] UberNet: Training a 'universal’ convolutional neural network for low-, mid-, and high-level vision using diverse datasets and limited memory (2016)
Iasonas Kokkinos
2016
INRIA
複数のタスクをこなせるようなネットワーク。ひとつの画像の入力に対し、複数のCNNの各レイヤーをあわせて、それをCNN間で統合し、タスク特有のものとする。
64 citation
[1153] Multinet: Real-time joint semantic reasoning for autonomous driving (2016)
Marvin Teichmann, Michael Weber, Marius Zoellner, Roberto Cipolla, Raquel Urtasun
2016
0 citation
[1154] DARTS: Differentiable Architecture Search (2019)
Hanxiao Liu, Karen Simonyan, Yiming Yang
2018, ICLR2019
CMU, DeepMind
ネットワークの構造を微分可能な形で探索する。エッジ候補(コンボリューションやプーリングなどの演算の候補)を作っておいて、離散条件を緩和して最適化する。
34 citation
[1155] What is consciousness, and could machines have it? (2017)
Stanislas Dehaene, Hakwan Lau, Sid Kouider
Science 2017
Collège de France, UCLA, U. Hong Kong
意識について。C0, C1, C2。面白いが、DL等のアーキテクチャとの関連は少ない。
23 citation
[1156] Intrinsic Motivation and Automatic Curricula via Asymmetric Self-Play
Sainbayar Sukhbaatar, Zeming Lin, Ilya Kostrikov, Gabriel Synnaeve, Arthur Szlam, Rob Fergus
ICLR2018 poster
FAIR, NYU
Aliceが状態を変えて、Bobがそれをもとに戻す。これを事前学習的にやって、ターゲットタスクを学習すると学習が早くなる。これを繰り返すと、AliceがBobの能力を少し上回る学習をさせるような、よいカリキュラムができる。
24 citation
[1157] Automated Curriculum Learning for Neural Networks (2017)
a
2017
182 citation
[1158] Practical black-box attacks against machine learning (2016)
a
2016
61 citation
[1159] Synthesizing Robust Adversarial Examples (2016)
Anish Athalye, Logan Engstrom, Andrew Ilyas, Kevin Kwok
ICML 2018 top30
MIT
カメを3Dプリンタで出力した敵対的事例。実世界の敵対的事例は回転等に弱いので、回転等でも平均的に目的のクラス出力となるように微小な変化を加えるという最適化問題を解く。
56 citation
[1160] Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples (2016)
Anish Athalye, Nicholas Carlini, David Wagner
ICML 2018 top30
MIT, UCB
「見えにくくした」勾配が、敵対的事例のディフェンスとして役に立たないことを示す。これらは、反復的最適による攻撃に対して防御できるが、これを緩和できる。「見えにくくした緩和」は、shattered gradient(ばらばらになった勾配)、確率的勾配、勾配消失/爆発などである。
識別器のほうは標準的に5層のものやResNet、Inception V3などを使っている。
0 citation
[1161] Learning Semantic Representations for Unsupervised Domain Adaptation (2018)
Shaoan Xie, Zibin Zheng, Liang Chen, Chuan Chen
ICML 2018
Sun Yat-sen U (China)
ドメイン適応を敵対的にやる方法。サンプルがソースドメインから来たか、ターゲットドメインから来たかを識別器は見破る。これに素性の関係性を入れ、さらに教師なしにしたもの。
37 citation
[1162] Provable Defenses against Adversarial Examples via the Convex Outer Adversarial Polytope (2018)
Eric Wong, J. Zico Kolter
ICML 2018 top30
CMU
ある範囲の境界のなかではクラスラベルが変わらないのであれば、その事例は敵対的でないと保証することができる。線形計画問題と考え、双対空間の解を求めることで効率的に求める。
0 citation
[1163] Best Arm Identification in Linear Bandits with Linear Dimension Dependency
ICML 2018 top30
17 citation
[1164] Automatic Goal Generation for Reinforcement Learning Agents
ICML 2018 top30
David Held, Xinyang Geng, Carlos Florensa, Pieter Abbeel
CMU, UCB
複数のタスクに対してのゴールを適切に設定する。環境中で達成できるタスクを自動的にエージェントが発見する。生成ネットワークで、エージェントが達成できるタスクを提案する。それによって、ちょうどよい難しさのタスクを設定し、カリキュラムとなる。GoalGANと呼ぶ。
スパイダーが徐々に動きを覚えていくようなデモ。
16 citation
[1165] Gradient Coding from Cyclic MDS Codes and Expander Graphs
ICML 2018 top30
17 citation
[1166] Gradient Descent Learns One-hidden-layer CNN: Don't be Afraid of Spurious Local Minima
Simon S. Du, Jason D. Lee, Yuandong Tian, Barnab´as P´oczos, Aarti Singh
ICML 2018 top30
CMU, USC, FAIR
1層の隠れ層があるときに、SGDによって0あるいはランダムに初期化されているReLUのニューラルネットワークを多項式時間で訓練することができることが従来研究で示されていた。これをこの研究では、2層の隠れ層があるときに拡張する。
23 citation
[1167] Optimizing the Latent Space of Generative Networks
Piotr Bojanowski, Armand Joulin, David Lopez-Paz, Arthur Szlam
ICML 2018 top30
FAIR
GANとかVAEの、エンコーダ部分を取り払う。zを確率的に生成し、そこからxを生成し、再構成誤差(というか、任意のziとxiを結びつける)を最小化する。このときにラプラシアンピラミッドの損失を取る。これだけで、きれいな画像を作ることができる。
つまり、GANでは、(A1)CNNによる強力な帰納バイアス、(A2)識別器の効果、の2つの効果があるが、A1だけでよかったということ。
18 citation
[1168] Spurious Local Minima are Common in Two-Layer ReLU Neural Networks
ICML 2018 top30
0 citation
[1169] Adversarially Regularized Autoencoders
Jake Zhao, Yoon Kim, Kelly Zhang, Alexander M. Rush, Yann LeCun
ICML 2018 top30
NYU, FAIR
敵対的オートエンコーダ(AAE)を拡張する。AAEは、入力変数から敵対的に正則化される潜在空間に変換する。AAEでは、潜在空間に特定のプライアを使っていたが、ここではGAN(WGAN)を使う。
11 citation
[1170] Analyzing the Robustness of Nearest Neighbors to Adversarial Examples
Yizhen Wang, Somesh Jha, Kamalika Chaudhuri
ICML 2018 top30
UC San Diego, U. Wisconsin-Madison
敵対的サンプルの理論的な分析。3つの頑健性がある。分布的頑健性。有限サンプル頑健性。アルゴリズム頑健性。ある点の周りの他のクラスが存在しない、頑健で正確な領域から議論をはじめる。k-NNを使って分析し、ロバストな1-NNアルゴリズムを提案。
0 citation
[1171] Parallel Bayesian Network Structure Learning
Tian Gao, Dennis Wei
ICML 2018 top30
ベイジアンネットワークの構造学習で、局所から大域へ学習する方法が注目されている。複数のデージェントが局所的な構造を並列に学習する方法を提案する。マルコフブランケットの考え方で複数の領域に分ける。
19 citation
[1172] Parallel WaveNet: Fast High-Fidelity Speech Synthesis
Aaron van den Oord, Yazhe Li, Igor Babuschkin, Karen Simonyan, Oriol Vinyals, Koray Kavukcuoglu
ICML 2018 top30
Google, DeepMind
WaveNetの生成を早くする。通常のWaveNetでは実時間の生成ができない。逆自己回帰フロー(IAF)というのを使って、並列に生成できるようにする。そのために、確率密度蒸留(Probability Density Distillation)というのを提案する。
14 citation
[1173] Stronger Generalization Bounds for Deep Nets via a Compression Approach
Sanjeev Avora, Rong Ge, Behnam Neyshabur, Yi Zhang
ICML 2018 top30
Princeton U., Duke U.
汎化性能がなぜ高いのかの別の説明。圧縮のフレームワークで説明する。ノイズに対する耐性も。
22 citation
[1174] IMPALA: Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures
Lasse Espeholt, Hubert Soyer, Remi Munos, Karen Simonyan, Volodymir Mnih, Tom Ward, Yotam Doron, Vlad Firoiu, Tim Harley, Iain Dunning, Shane Legg, Koray Kavukcuoglu
ICML 2018 top30
DeepMind
Actorの軌道を中心のサーバに送る。中心のサーバは複数あって、GPU効率的である。重要度重みつきアクター学習アーキテクチャ(Importance Weighted Actor-Learner Architecture)
12 citation
[1175] PDE-Net: Learning PDEs from Data
Zichao Long, Yiping Lu, Xianzhong Ma, Bin Dong
ICML 2018 top30
北京大学
偏微分方程式を見つける。適切に制約した畳み込みフィルターにより微分を近似することと、DNN等によって非線形の反応を近似することの2つから成る。
17 citation
[1176] Preventing Fairness Gerrymandering: Auditing and Learning for Subgroup Fairness
Michael Kearns, Seth Neel, Aaron Roth, and Zhiwei Steven Wu
ICML 2018 top30
U. Pennsylvania, MSR NYC
機械学習における公平性。例えば、人種のような属性値をいれても他が変わらない。これを「監査」がチェックする。2つのプレイヤー(primalなプレイヤー)と監査(双対なプレイヤー)がゼロサム・ゲームをプレイする。
11 citation
[1177] Disentangling by Factorising
Hyunjik Kim and Andriy Mnih
ICML 2018 top30
DeepMind, U. Oxford
FactorVAEを提案。beta-VAEを改良したもの。beta-VAEは、変分事後分布と事前分布の距離の重みを大きくしたもので、disentanglingに安定した効果がある。ところが再構成誤差が大きくなるという欠点があった。これを解消する。
12 citation
[1178] Dynamic Evaluation of Neural Sequence Models
Ben Krause, Emmanuel Kahembwe, Iain Murray, Steve Renals
ICML 2018 top30
U. Edinburgh
LSTM等の系列の生成時に、動的に評価して系列をよりよく生成する。WikiTextなどでperplexityを上げた。tを生成するのに、t-1までの系列を使うが多くの方法ではここを多少なりとも端折る。ので、その違いが発生するのを、生成時に補正するような方法。
9 citation
[1179] Adversarial Risk and the Dangers of Evaluating Against Weak Attacks
ICML 2018 top30
8 citation
[1180] Data-Dependent Stability of Stochastic Gradient Descent
ICML 2018 top30
13 citation
[1181] Implicit Regularization in Nonconvex Statistical Estimation: Gradient Descent Converges Linearly for Phase Retrieval and Matrix Completion
ICML 2018 top30
8 citation
[1182] Learning Deep ResNet Blocks Sequentially using Boosting Theory
ICML 2018 top30
10 citation
[1183] Least-Squares Temporal Difference Learning for the Linear Quadratic Regulator
ICML 2018 top30
10 citation
[1184] Beyond Finite Layer Neural Networks: Bridging Deep Architectures and Numerical Differential Equations
ICML 2018 top30
11 citation
[1185] Bounding and Counting Linear Regions of Deep Neural Networks
ICML 2018 top30
8 citation
[1186] On the Power of Over-parametrization in Neural Networks with Quadratic Activation
ICML 2018 top30
101 citation
[1187] Photographic image synthesis with cascaded refinement networks (2017)
Q. Chen and V. Koltun
ICCV 2017
74 citation
[1188] Genetic CNN (2017)
a
2017
292 citation
[1189] Aggregated Residual Transformations for Deep Neural Networks (2016)
Saining Xie, Ross Girshick, Piotr Dollár, Zhuowen Tu, Kaiming He
2016
15 citation
[1190] Learning to See in the Dark (2018)
a
CVPR2018
125 citation
[1191] Squeeze-and-Excitation Networks (2018)
Jie Hu, Li Shen, Gang Sun
CVPR2018 top30
Momenta, U. Oxford
ILSVRC 2017の分類タスクで優勝した論文。2.251%。チャネルごとの重みを作る。そのために、チャネルごとの平均を取り、ボトルネックを作り、チャネルの重みにし(スクイーズ)、それによってチャネルごとの値を大きくする(エキサイテーション)。ResNetやInceptionと組み合わせて使うことができる。
164 citation
[1192] ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices (2018)
Xiangyu Zhang, Xinyu Zhou, Mengxiao Lin, Jian Sun
CVPR2018 top30
Megvii Inc (Face++)
1x1コンボリューションはチャネル間の計算量が大きい。そこで、チャネル方向にグループコンボリューションをして、シャッフルをする。ARMの計算コアのハードウェアでも、AlexNetと比較しほぼ同程度の性能で13倍早くなる。
82 citation
[1193] Learning Transferable Architectures for Scalable Image Recognition (2018)
Barret Zoph, Vijay Vasudevan, Jonathon Shlens, Quoc V. Le
CVPR2018 top30
Google Brain
ニューラルアーキテクチャーサーチ(NAS)は、子どもネットワークのアーキテクチャをRNNで探索し学習する。しかしこれだと時間がかかっていた。そこで、小さいデータセットで学習させてから転移するような方法を取る。Cifar10でやってからImagenetとか。ImageNetで、82.7%のトップ1エラーという最新の精度を出した。
keyword: メタ学習
52 citation
[1194] High-Resolution Image Synthesis and Semantic Manipulation With Conditional GANs (2018)
Ting-Chun Wang, Ming-Yu Liu, Jun-Yan Zhu, Andrew Tao, Jan Kautz, Bryan Catanzaro
CVPR2018 top30
NVIDIA corp., UCB
セマンティックマップから画像を生成する。車の動画で車や路面を選べる。すごい。ジェネレータは、残余ブロックを使ったもので、ダウンサンプリングしてからアップサンプリングする。知覚損失的に、識別器はさまざまなレベルで判別。損失関数も、さまざまなレベルでの知覚損失を使う。
49 citation
[1195] StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation (2018)
Yunjey Choi, Minje Choi, Munyoung Kim, Jung-Woo Ha, Sunghun Kim, Jaegul Choo
CVPR2018 top30
Korea U., Naver
Image-to-Image翻訳が、2つのドメインを変換するので、ドメインがn個になるとn^2の変換が発生するのに対し、StarGANは、真ん中にひとつの生成器を置いて生成する。Celeb Aと、感情のRaFDをあわせて、Celeb Aの画像を笑わせたり怒らせたりできる。
36 citation
[1196] Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics (2018)
Alex Kendall, Yarin Gal, Roberto Cipolla
CVPR2018 top30
U. Cambridge, U. Oxford
深さ推定、セマンティック/インスタンスセグメンテーションを同時に学習する。意味的な表現と幾何学的な表現の両方を学習する。Homoscedastic(等分散)な重み付けが効率的である。
32 citation
[1197] COCO-Stuff: Thing and Stuff Classes in Context (2018)
a
CVPR2018 top30
32 citation
[1198] Tips and Tricks for Visual Question Answering: Learnings From the 2017 Challenge (2018)
a
CVPR2018 top30
28 citation
[1199] The Unreasonable Effectiveness of Deep Features as a Perceptual Metric (2018)
Richard Zhang, Phillip Isola, Alexei Efros, Eli Shechtman, Oliver Wang
CVPR2018 top30
UCB, OpenAI, Adobe Research
知覚損失が非常に有効であることについて、48万の人間の答えを分析して示している。特に、分類やセマンティックセグメンテーションなど、何かのタスクに強い特徴量は、ユークリッド距離が人間の判断と非常に近い。
26 citation
[1200] Multi-Agent Diverse Generative Adversarial Networks (2018)
Arnab Ghosh, Viveka Kulharia, Vinay Namboodiri, Philip H. S. Torr, Puneet K. Dokania
CVPR2018 top30
U. Oxford
MADGAN。モデル崩壊を割けるために、複数の生成器がデータを生成する。識別器は、サンプルがフェイクかリアルかだけでなく、生成器がフェイクかリアルかも見破る。すると、生成器の分布が元のデータの分布と似るようになる。
21 citation
[1201] Improved Lossy Image Compression With Priming and Spatially Adaptive Bit Rates for Recurrent Networks (2018)
a
CVPR2018 top30
34 citation
[1202] Non-Local Neural Networks (2018)
Xiaolong Wang, Ross Girshick, Abhinav Gupta, Kaiming He
CVPR2018 top30
CMU, FAIR
CNNは局所的な特徴量を使って、上の方で大域的な特徴量になるが、非効率である。ここでは、xと、他のすべての点とのペアに対する値の平均を取るような特徴量を提案する。いろいろなアーキテクチャに組み込むことができる。動画のデータセットで、最新かそれを上回る結果を出した。
20 citation
[1203] Learning Convolutional Networks for Content-Weighted Image Compression (2018)
a
CVPR2018 top30
26 citation
[1204] Deep Mutual Learning (2018)
Ying Zhang, Tao Xiang, Timothy M. Hospedales, Huchuan Lu
CVPR2018 top30
Dalian U. of Tech., China, Queen Mary U. of London, UK, U. of Edinburgh, UK
蒸留のように教師ネットワークが生徒ネットワークに教えるのではなく、生徒ネットワーク同士が教える。アンサンブルで確率値を作って、それを教師データにする。面白い。
18 citation
[1205] Generate to Adapt: Aligning Domains Using Generative Adversarial Networks (2018)
a
CVPR2018 top30
18 citation
[1206] AttnGAN: Fine-Grained Text to Image Generation With Attentional Generative Adversarial Networks (2018)
a
CVPR2018 top30
22 citation
[1207] AVA: A Video Dataset of Spatio-Temporally Localized Atomic Visual Actions (2018)
a
CVPR2018 top30
17 citation
[1208] Frustum PointNets for 3D Object Detection From RGB-D Data (2018)
a
CVPR2018 top30
18 citation
[1209] CondenseNet: An Efficient DenseNet Using Learned Group Convolutions (2018)
a
CVPR2018 top30
13 citation
[1210] VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection (2018)
a
CVPR2018 top30
12 citation
[1211] Defense Against Adversarial Attacks Using High-Level Representation Guided Denoiser (2018)
a
CVPR2018 top30
13 citation
[1212] PWC-Net: CNNs for Optical Flow Using Pyramid, Warping, and Cost Volume (2018)
a
CVPR2018 top30
12 citation
[1213] Detecting and Recognizing Human-Object Interactions (2018)
a
CVPR2018 top30
32 citation
[1214] Tips and Tricks for Visual Question Answering: Learnings from the 2017 Challenge (2018)
Damien Teney, Peter Anderson, Xiaodong He, Anton van den Hengel
CVPR2018
University of Adelaide, オーストラリア, Deep Learning Technology Center, MSR, USA
2017年のVQAチャレンジで優勝したチーム。3000GPU時間でハイパラの探索をし、さまざまなコツを見つけ出したのでその紹介。シグモイド出力、ソフトな訓練ターゲット、ボトムアップなアテンションによる画像特徴量などなど。
ネットワークはかなり恣意的で、質問のほうはワードエンベッティングのあとGRU、画像のほうはCNNのあとアテンションで、それらを合わせて、画像的な観点からの答えとテキスト的な観点からの答えを出して、答えを出す。
34 citation
[1215] MoCoGAN: Decomposing Motion and Content for Video Generation (2018)
Sergey Tulyakov, Ming-Yu Liu, Xiaodong Yang, Jan Kautz
CVPR2018 top30
Snap Research, NVIDIA
コンテンツと動きに分けてモデル化。生成器は、RNNと画像生成器、識別器も2つあって、画像と動画それぞれを見分ける。
17 citation
[1216] On the expressive efficiency of sum product networks (2014)
a
2014
123 citation
[1217] On the expressive power of deep learning: A tensor analysis (2015)
Nadav Cohen, Or Sharir, Amnon Shashua
2015
210 citation
[1218] Flownet 2.0: Evolution of optical flow estimation with deep networks (2017)
a
CVPR, 2017
96 citation
[1219] Spatio-temporal video autoencoder with differentiable memory (2016)
a
ICLR, workshop, 2016.
0 citation
[1220] End-to-End Speech Recognition From the Raw Waveform (2018)
Neil Zeghidour, Nicolas Usunier, Gabriel Synnaeve, Ronan Collobert, Emmanuel Dupoux
Interspeech 2018
21 citation
[1221] Practical network blocks design with q-learning
2017
a
KW: メタ学習
0 citation
[1222] Evolving deep neural networks (2017)
Risto Miikkulainen, Jason Liang, Elliot Meyerson, Aditya Rawal, Dan Fink, Olivier Francon, Bala Raju, Hormoz Shahrzad, Arshak Navruzyan, Nigel Duffy, Babak Hodjat
2017
Sentient Tech, UT Austin
Cifar10の構造を学習。交叉と突然変異。NEATというのをベース。ハイパーパラメータ(例えば、フィルターの数、Dropoutの率、モメンタム)などを定義している。
keyword: メタ学習
32 citation
[1223] Deeparchitect: Automatically designing and training deep architectures
2017
a
KW: メタ学習
114 citation
[1224] Large-scale evolution of image classifiers (2017)
Esteban Real, Sherry Moore, Andrew Selle, Saurabh Saxena, Yutaka Leon Suematsu, Jie Tan, Quoc V. Le, Alexey Kurakin
2017
Google Brain
進化的手法で、CIFAR-10のよい分類器の構造を見つける。ポピュレーションは1000で、精度が適合度、主に突然変異のみ。コンボリューション層を外すとかつけるとか、フィルターのサイズやストライドを変えるとか、スキップコネクションをつけるとか。とにかく力任せに計算量を投下したところがすごい。こういった研究のなかでは最もよい性能だが、そもそも何を遺伝子にエンコードするのかをかなり恣意的に決めているので、本当に新しいのは出ない。交叉(recombination)は少しだけ実験。
keyword: メタ学習
86 citation
[1225] Dual learning for machine translation (2016)
a
2016
3 citation
[1226] Super SloMo: High Quality Estimation of Multiple Intermediate Frames for Video Interpolation (2017)
Huaizu Jiang, Deqing Sun, Varun Jampani, Ming-Hsuan Yang, Erik Learned-Miller, Jan Kautz
2017
Nvidia
映像における画像の内挿。デモはすごい。Unetを使っている。フローを取り出す部分と、それをもとに内挿する部分の2つのネットワーク。240fpsの動画で訓練。
0 citation
[1227] Meta-Gradient Reinforcement Learning (2018)
a
2018
91 citation
[1228] Adversarial examples are not easily detected: Bypassing ten detection methods (2017)
a
2017
71 citation
[1229] Feature squeezing: Detecting adversarial examples in deep neural networks (2017)
a
2017
281 citation
[1230] Distillation as a defense to adversarial perturbations against deep neural networks (2016)
a
2016
42 citation
[1231] Defensive distillation is not robust to adversarial examples (2016)
a
2016
1 citation
[1232] Neural scene representation and rendering (2018)
S. M. Ali Eslami, Danilo J. Rezende, Frederic Besse, Fabio Viola, Ari S. Morcos, Marta, Garnelo, Avraham Ruderman, Andrei A. Rusu, Ivo Danihelka, Karol Gregor, David P. Reichert, Lars Buesing, Theophane Weber, Oriol Vinyals, Dan Rosenbaum, Neil Rabinowitz, Helen King, Chloe Hillier, Matt Botvinick, Daan Wierstra, Koray Kavukcuoglu, Demis Hassabis
Science 2018
DeepMind
重要な論文。生成クエリーネットワーク(GQN)。異なる視点からのシーンで内部表現を作り(表現ネットワーク)、別の視点(クエリー視点)からの見え方を予測する(生成ネットワーク)。人間がラベル付けする必要なく、世界を学習する。CNN+LSTM(+スキップコネクション)によるモデル化のようだ。
0 citation
[1233] How Does Batch Normalization Help Optimization? (No, It Is Not About Internal Covariate Shift) (2018)
a
2018
6 citation
[1234] Achieving Human Parity on Automatic Chinese to English News Translation (2018)
a
2018
Microsoft AI&Research
翻訳で人間に匹敵するという論文。
NMTを基本にして、ソースからターゲット、ターゲットからソースへの双対性を使う。系列の生成のときにノイズが蓄積することを、Deliverationネットワークで2パスを使うって軽減。データの質を改善。複数のシステムを組み合わせる(これが結構効いている)。
これらによって、人間と比肩しうる(有意差がない)システムを達成。
33 citation
[1235] Spectral Normalization for Generative Adversarial Networks (2018)
Takeru Miyato, Toshiki Kataoka, Masanori Koyama, Yuichi Yoshida
ICLR2018
固有値の大きさで正規化する。いくつかの正規化よりも良い。
5 citation
[1236] AmbientGAN: Generative models from lossy measurements (2018)
Ashish Bora, Eric Price, Alexandros Dimakis
ICLR2018
128 citation
[1237] Progressive Growing of GANs for Improved Quality, Stability, and Variation (2018)
Tero Karras, Timo Aila, Samuli Laine, Jaakko Lehtinen
ICLR2018
NVIDIA
GANを訓練するときに、識別器と生成器を低解像度から徐々に前進的に訓練していく。
17 citation
[1238] Wasserstein Auto-Encoders (2018)
Ilya Tolstikhin, Olivier Bousquet, Sylvain Gelly, Bernhard Schoelkopf
ICLR2018
Wasserstein距離を使った変分オートエンコーダ。式の一部だけが変わる。ぼやけなくなる。元に戻したときの期待値の分布が似るように。
20 citation
[1239] On the Convergence of Adam and Beyond (2018)
Sashank Reddi, Satyen Kale, Sanjiv Kumar
ICLR2018
Google NY
RMSprop, Adam Adadelta, Nadamなどは過去の勾配の2乗の指数移動平均のルートをとっている。しかし、収束しないことがあり、これは指数移動平均に起因する。過去の勾配に対する長期記憶を持てばよく、Adamアルゴリズムの新しいバリエーションを提案し、結果がよくなることを示す。
2 citation
[1240] On the insufficiency of existing momentum schemes for Stochastic Optimization (2018)
Rahul Kidambi, Praneeth Netrapalli, Prateek Jain, Sham M Kakade
ICLR2018
9 citation
[1241] Learning to Represent Programs with Graphs (2018)
Miltiadis Allamanis, Marc Brockschmidt, Mahmoud Khademi
ICLR2018
7 citation
[1242] Neural Sketch Learning for Conditional Program Generation (2018)
Vijayaraghavan Murali, Letao Qi, Swarat Chaudhuri, Chris Jermaine
ICLR2018
7 citation
[1243] Characterizing Adversarial Subspaces Using Local Intrinsic Dimensionality (2018)
Xingjun Ma, Bo Li, Yisen Wang, Sarah Erfani, Sudanthi Wijewickrema, Grant Schoenebeck, dawn song, Michael E Houle, James Bailey
ICLR2018
29 citation
[1244] Certifying Some Distributional Robustness with Principled Adversarial Training (2018)
Aman Sinha, Hong Namkoong, John Duchi
ICLR2018
2 citation
[1245] Boosting Dilated Convolutional Networks with Mixed Tensor Decompositions (2018)
Nadav Cohen, Ronen Tamari, Amnon Shashua
ICLR2018
13 citation
[1246] Spherical CNNs (2018)
Taco Cohen, Mario Geiger, Jonas Koehler, Max Welling
ICLR2018
6 citation
[1247] Zero-Shot Visual Imitation (2018)
Deepak Pathak, Parsa Mahmoudieh, Guanghao Luo, Pulkit Agrawal, Dian Chen, Fred Shentu, Evan Shelhamer, Jitendra Malik, Alexei Efros, Trevor Darrell
ICLR2018
UCB
どうやるかは事前学習しておき、何をやるかだけを模倣する。ロープを操作する。
2 citation
[1248] Multi-Scale Dense Networks for Resource Efficient Image Classification (2018)
Gao Huang, Danlu Chen, Tianhong Li, Felix Wu, Laurens van der Maaten, Kilian Q Weinberger
ICLR2018
6 citation
[1249] Training and Inference with Integers in Deep Neural Networks (2018)
Shuang Wu, Guoqi Li, Feng Chen, Luping Shi
ICLR2018
9 citation
[1250] Ask the Right Questions: Active Question Reformulation with Reinforcement Learning (2018)
Christian Buck, Jannis Bulian, Massimiliano Ciaramita, Wojciech Gajewski, Andrea Gesmundo, Neil Houlsby, Wei Wang.
ICLR2018
48 citation
[1251] Learning Deep Mean Field Games for Modeling Large Population Behavior (2018)
Jiachen Yang, Xiaojing Ye, Rakshit Trivedi, huan xu, Hongyuan Zha
ICLR2018
Georgia Institute of Tech, Georgia State U.
平均場ゲーム(複数のプレイヤーが場の平均値を気にして挙動する)が、マルコフ決定過程につながり、ベルマン方程式で解けることを示す。
4 citation
[1252] Variance Reduction for Policy Gradient with Action-Dependent Factorized Baselines (2018)
Cathy Wu, Aravind Rajeswaran, Yan Duan, Vikash Kumar, Alexandre M Bayen, Sham M Kakade, Igor Mordatch, Pieter Abbeel
ICLR2018
UCB, Open AI
方策勾配は勾配推定のバリアンスが大きい。そこで、バリアンスを減らすための、バイアスのない、アクション依存のベースラインを提案する。ひとつのアクションを複数のファクターに分け、ファクターごとにベースラインを作る。
10 citation
[1253] Continuous Adaptation via Meta-Learning in Nonstationary and Competitive Environments (2018)
Maruan Al-Shedivat, Trapit Bansal, Yuri Burda, Ilya Sutskever, Igor Mordatch, Pieter Abbeel
ICLR2018
9 citation
[1254] Synthetic and Natural Noise Both Break Neural Machine Translation (2018)
Yonatan Belinkov, Yonatan Bisk
ICLR2018
MIT, U. Washington
文字ベースのNMTは、語彙がなくなる問題を軽減するが、ノイズがあるデータに弱い。この論文では、合成あるいは自然なノイズを入れる。最新のモデルでは失敗するが、構造的な不変の語の表現と、頑健な訓練という2つの方法を取り入れて向上させる。
0 citation
[1255] Beyond Word Importance: Contextual Decomposition to Extract Interactions from LSTMs (2018)
William Murdoch, Peter J Liu, Bin Yu
ICLR2018
14 citation
[1256] Breaking the Softmax Bottleneck: A High-Rank RNN Language Model (2018)
Zhilin Yang, Zihang Dai,, William W Cohen
ICLR2018
13 citation
[1257] Deep Complex Networks
Chiheb Trabelsi, Olexa Bilaniuk, Ying Zhang, Dmitriy Serdyuk, Sandeep Subramanian, Joao Felipe Santos, Soroush Mehri, Negar Rostamzadeh, Yoshua Bengio, Christopher Pal
ICLR2018 poster
MILA, Ecole Polytechnique, MSR Montreal, Element AI
複素のNN。CNNNとLSTM。複素バッチ正規化、複素重み初期化。実数と同じくらい良い。MusicNetやTIMITで評価。音声系のタスクでは最新の成果。
NA
[1258] Universal Agent for Disentangling Environments and Tasks
Jiayuan Mao, Honghua Dong, Joseph J Lim
ICLR2018 poster
清華大学、USC
現在の強化学習は、ひとつの特定のタスクのもとで訓練されている。しかし、環境が固定され、タスクが変わることもよくある。階層的強化学習のアイディアを借りて、タスクと環境の知識を2つのユニットに分けるようなフレームワークを提案する。
環境に特有の知識は、どの状態からどの状態に動くかで、タスク特有の知識は、次の状態を計画する。
3 citation
[1259] Improving the Improved Training of Wasserstein GANs: A Consistency Term and Its Dual Effect
Xiang Wei, Boqing Gong, Zixia Liu, Wei Lu, Liqiang Wang
ICLR2018 poster
0 citation
[1260] Fraternal Dropout
Konrad Zolna, Devansh Arpit, Dendi Suhubdy, Yoshua Bengio
ICLR2018 poster
3 citation
[1261] Learning an Embedding Space for Transferable Robot Skills
Karol Hausman, Jost Tobias Springenberg, ziyu wang, Nicolas Heess, Martin Riedmiller
ICLR2018 poster
0 citation
[1262] Hierarchical Density Order Embeddings
Praphruetpong Athiwaratkun, Andrew G Wilson
ICLR2018 poster
3 citation
[1263] Model compression via distillation and quantization
Antonio Polino, Razvan Pascanu, Dan Alistarh
ICLR2018 poster
0 citation
[1264] Maximum a Posteriori Policy Optimisation
abbas abdolmaleki, Jost Tobias Springenberg, Nicolas Heess, Yuval Tassa, Remi Munos
ICLR2018 poster
8 citation
[1265] MaskGAN: Better Text Generation via Filling in the _______
William Fedus, Ian Goodfellow, Andrew Dai
ICLR2018 poster
1 citation
[1266] Kronecker-factored Curvature Approximations for Recurrent Neural Networks
James Martens, Jimmy Ba, Matthew Johnson
ICLR2018 poster
4 citation
[1267] Scalable Private Learning with PATE
Nicolas Papernot, Shuang Song, Ilya Mironov, Ananth Raghunathan, Kunal Talwar, Ulfar Erlingsson
ICLR2018 poster
6 citation
[1268] Online Learning Rate Adaptation with Hypergradient Descent
Atilim Gunes Baydin, Robert Cornish, David Martínez, Mark Schmidt, Frank Wood
ICLR2018 poster
1 citation
[1269] Learning Awareness Models
Brandon Amos, Laurent Dinh, Serkan Cabi, Thomas Rothörl, Sergio Gómez Colmenarejo, Alistair M Muldal, Tom Erez, Yuval Tassa, Nando d Freitas, Misha Denil
ICLR2018 poster
5 citation
[1270] On the regularization of Wasserstein GANs
Henning Petzka, Asja Fischer, Denis Lukovnikov
ICLR2018 poster
11 citation
[1271] Spatially Transformed Adversarial Examples
chaowei Xiao, Jun-Yan Zhu, Bo Li, Warren He, Mingyan Liu, dawn song
ICLR2018 poster
12 citation
[1272] Decision-Based Adversarial Attacks: Reliable Attacks Against Black-Box Machine Learning Models
Wieland Brendel, Jonas Rauber,
ICLR2018 poster
2 citation
[1273] Communication Algorithms via Deep Learning
Hyeji Kim, Yihan Jiang, Ranvir B Rana, Sreeram Kannan, Sewoong Oh, Pramod Viswanath
ICLR2018 poster
5 citation
[1274] Towards Image Understanding from Deep Compression Without Decoding
Róbert Torfason, Fabian Mentzer, Eirikur Agustsson, Michael Tschannen, Radu Timofte, Luc V Gool
ICLR2018 poster
1 citation
[1275] Boosting the Actor with Dual Critic
Bo Dai, Albert Shaw, Niao He, Lihong Li, Le Song
ICLR2018 poster
1 citation
[1276] A DIRT-T Approach to Unsupervised Domain Adaptation
Rui Shu, Hung H Bui, Hirokazu Narui, Stefano Ermon
ICLR2018 poster
0 citation
[1277] LEARNING TO SHARE: SIMULTANEOUS PARAMETER TYING AND SPARSIFICATION IN DEEP LEARNING
Dejiao Zhang, Haozhu Wang, Mario Figueiredo, Laura Balzano
ICLR2018 poster
1 citation
[1278] Parameterized Hierarchical Procedures for Neural Programming
Roy Fox, Richard Shin, Sanjay Krishnan, Ken Goldberg, dawn song, Ion Stoica
ICLR2018 poster
9 citation
[1279] Auto-Encoding Sequential Monte Carlo
Tuan Anh Le, Maximilian Igl, Tom Rainforth, Tom Jin, Frank Wood
ICLR2018 poster
2 citation
[1280] Learn to Pay Attention
Saumya Jetley, Nicholas Lord, Namhoon Lee, Philip Torr
ICLR2018 poster
7 citation
[1281] The power of deeper networks for expressing natural functions
David Rolnick, Max Tegmark
ICLR2018 poster
0 citation
[1282] WHAI: Weibull Hybrid Autoencoding Inference for Deep Topic Modeling
Hao Zhang, Bo Chen, Dandan Guo, Mingyuan Zhou
ICLR2018 poster
0 citation
[1283] Divide and Conquer Networks
Alex Nowak, David Folqué Garcia, Joan Bruna
ICLR2018 poster
25 citation
[1284] Hierarchical Representations for Efficient Architecture Search
Hanxiao Liu, Karen Simonyan, Oriol Vinyals, Chrisantha Fernando, Koray Kavukcuoglu
ICLR2018 poster
CMU, DeepMind
構造を進化計算により探索。候補の数を減らすために階層性を仮定。ImageNetのtop-1エラーで20.3%くらいと、多くの手動でのチューニングのアルゴリズムを上回る。
3 citation
[1285] Beyond Shared Hierarchies: Deep Multitask Learning through Soft Layer Ordering
Elliot Meyerson, Risto Miikkulainen
ICLR2018 poster
116 citation
[1286] Towards Deep Learning Models Resistant to Adversarial Attacks
Aleksander Madry, Aleksandar A Makelov, Ludwig Schmidt, Dimitris Tsipras, Adrian Vladu
ICLR2018 poster
MIT
敵対的な攻撃にロバストなモデルを学習する。
テストの最も強い敵対的攻撃に89%の精度。射影勾配効果(PGD)というのを、ユニバーサルな一次敵対として扱う。
1 citation
[1287] Neural Speed Reading via Skim-RNN
Minjoon Seo, Sewon Min, Ali Farhadi, Hannaneh Hajishirzi
ICLR2018 poster
NA
[1288] TreeQN and ATreeC: Differentiable Tree-Structured Models for Deep Reinforcement Learning
Gregory Farquhar, Tim Rocktaeschel, Maximilian Igl, Shimon Whiteson
ICLR2018 poster
8 citation
[1289] Gradient Estimators for Implicit Models
Yingzhen Li, Richard E Turner
ICLR2018 poster
1 citation
[1290] Rethinking the Smaller-Norm-Less-Informative Assumption in Channel Pruning of Convolution Layers
Jianbo Ye, Xin Lu, Zhe Lin, James Z Wang
ICLR2018 poster
19 citation
[1291] When is a Convolutional Filter Easy to Learn?
Simon S Du, Jason D Lee, Yuandong Tian
ICLR2018 poster
2 citation
[1292] MGAN: Training Generative Adversarial Nets with Multiple Generators
Quan Hoang, Tu D Nguyen, Trung Le, Dinh Phung
ICLR2018 poster
1 citation
[1293] Improving GAN Training via Binarized Representation Entropy (BRE) Regularization
Yanshuai Cao, Gavin Weiguang Ding, Yik Chau Lui, Ruitong Huang
ICLR2018 poster
3 citation
[1294] Distributed Distributional Deterministic Policy Gradients
Gabriel Barth-maron, Matthew Hoffman, David Budden, Will Dabney, Daniel Horgan, Dhruva Tirumala Bukkapatnam, Alistair M Muldal, Nicolas Heess, Timothy Lillicrap
ICLR2018 poster
0 citation
[1295] Reinforcement Learning on Web Interfaces using Workflow-Guided Exploration
Evan Z Liu, Kelvin Guu, Panupong Pasupat, Tim Shi, Percy Liang
ICLR2018 poster
0 citation
[1296] Learning a Generative Model for Validity in Complex Discrete Structures
David Janz, Jos van der Westhuizen, Brooks Paige, Matt J Kusner, José Miguel Hernández Lobato
ICLR2018 poster
0 citation
[1297] TRUNCATED HORIZON POLICY SEARCH: COMBINING REINFORCEMENT LEARNING & IMITATION LEARNING
Wen Sun, J. A Bagnell, Byron Boots
ICLR2018 poster
0 citation
[1298] Flipout: Efficient Pseudo-Independent Weight Perturbations on Mini-Batches
Yeming Wen, Paul Vicol, Jimmy Ba, Dustin Tran, Roger Grosse
ICLR2018 poster
2 citation
[1299] Lifelong Learning with Dynamically Expandable Networks
Jaehong Yoon, Eunho Yang, Jeongtae Lee, Sung Ju Hwang
ICLR2018 poster
0 citation
[1300] Simulated+Unsupervised Learning With Adaptive Data Generation and Bidirectional Mappings
Kangwook Lee, Hoon Kim, Changho Suh
ICLR2018 poster
3 citation
[1301] Quantitatively Evaluating GANs With Divergences Proposed for Training
Daniel Im, He Ma, Graham W Taylor, Kristin Branson
ICLR2018 poster
3 citation
[1302] Attacking Binarized Neural Networks
Angus Galloway, Graham W Taylor, Medhat Moussa
ICLR2018 poster
4 citation
[1303] Go for a Walk and Arrive at the Answer: Reasoning Over Paths in Knowledge Bases using Reinforcement Learning
Rajarshi Das, Shehzaad Dhuliawala, Manzil Zaheer, Luke Vilnis, Ishan Durugkar, Akshay Krishnamurthy, Alex Smola, Andrew McCallum
ICLR2018 poster
2 citation
[1304] Mixed Precision Training of Convolutional Neural Networks using Integer Operations
Dipankar Das, Naveen Mellempudi, Dheevatsa Mudigere, Dhiraj Kalamkar, Sasikanth Avancha, Kunal Banerjee, Srinivas Sridharan, Karthik Vaidyanathan, Bharat Kaul, Evangelos Georganas, Alexander Heinecke, Pradeep K Dubey, Jesus Corbal, Nikita Shustrov, Roma Dubtsov, Evarist Fomenko, Vadim Pirogov
ICLR2018 poster
NA
[1305] Imitation Learning from Visual Data with Multiple Intentions
Aviv Tamar, Khashayar Rohanimanesh, Yinlam Chow, Chris Vigorito, Ben Goodrich, Michael Kahane, Derik Pridmore
ICLR2018 poster
6 citation
[1306] Demystifying MMD GANs
Mikolaj Binkowski, Dougal Sutherland, Michael Arbel, Arthur Gretton
ICLR2018 poster
4 citation
[1307] Decision Boundary Analysis of Adversarial Examples
Warren He, Bo Li, dawn song
ICLR2018 poster
0 citation
[1308] Routing Networks: Adaptive Selection of Non-Linear Functions for Multi-Task Learning
Clemens Rosenbaum, Tim Klinger, Matt Riemer
ICLR2018 poster
5 citation
[1309] Compositional Attention Networks for Machine Reasoning
Drew A. Hudson, Christopher D Manning
ICLR2018 poster
2 citation
[1310] Memory-based Parameter Adaptation
Pablo Sprechmann, Siddhant Jayakumar, Jack Rae, Alexander Pritzel, Adria P Badia, Benigno Uria, Oriol Vinyals, Demis Hassabis, Razvan Pascanu, Charles Blundell
ICLR2018 poster
2 citation
[1311] Semi-parametric topological memory for navigation
Nikolay Savinov, Alexey Dosovitskiy, Vladlen Koltun
ICLR2018 poster
6 citation
[1312] Latent Constraints: Learning to Generate Conditionally from Unconditional Generative Models
Jesse Engel, Matthew D Hoffman, Adam Roberts
ICLR2018 poster
3 citation
[1313] Sensitivity and Generalization in Neural Networks: an Empirical Study
Roman Novak, Yasaman Bahri, Daniel Abolafia, Jeffrey Pennington, Jascha Sohl-Dickstein
ICLR2018 poster
14 citation
[1314] Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training
Yujun Lin, song han,, Yu Wang, Bill Dally
ICLR2018 poster
7 citation
[1315] Skip Connections Eliminate Singularities
Emin Orhan, Xaq Pitkow
ICLR2018 poster
7 citation
[1316] Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting
Yaguang Li, Rose Yu, Cyrus Shahabi, Yan Liu
ICLR2018 poster
4 citation
[1317] Simulating Action Dynamics with Neural Process Networks
Antoine Bosselut, Omer Levy, Ari Holtzman, Corin Ennis, Dieter Fox, Yejin Choi
ICLR2018 poster
3 citation
[1318] Deep Learning as a Mixed Convex-Combinatorial Optimization Problem
Abram Friesen, Pedro Domingos
ICLR2018 poster
3 citation
[1319] Multi-Mention Learning for Reading Comprehension with Neural Cascades
Swabha Swayamdipta, Ankur Parikh, Tom Kwiatkowski
ICLR2018 poster
5 citation
[1320] Learning General Purpose Distributed Sentence Representations via Large Scale Multi-task Learning
Sandeep Subramanian, Adam Trischler, Yoshua Bengio, Christopher Pal
ICLR2018 poster
3 citation
[1321] Evidence Aggregation for Answer Re-Ranking in Open-Domain Question Answering
Shuohang Wang, Mo Yu, Jing Jiang, Wei Zhang, Xiaoxiao Guo, Shiyu Chang, Zhiguo Wang, Tim Klinger, Gerald Tesauro, Murray Campbell
ICLR2018 poster
0 citation
[1322] Predicting Floor-Level for 911 Calls with Neural Networks and Smartphone Sensor Data
William A Falcon, Henning Schulzrinne
ICLR2018 poster
4 citation
[1323] Deep Active Learning for Named Entity Recognition
Yanyao Shen, Hyokun Yun, Zachary Lipton, Yakov Kronrod, anima anandkumar
ICLR2018 poster
1 citation
[1324] Variational Network Quantization
Jan Achterhold, Jan M Koehler, Anke Schmeink, Tim Genewein
ICLR2018 poster
0 citation
[1325] Neural-Guided Deductive Search for Real-Time Program Synthesis from Examples
Ashwin Vijayakumar, Abhishek Mohta, Alex Polozov, Dhruv Batra, Prateek Jain, Sumit Gulwani
ICLR2018 poster
3 citation
[1326] Cascade Adversarial Machine Learning Regularized with a Unified Embedding
Taesik Na, Jong Hwan Ko, Saibal Mukhopadhyay
ICLR2018 poster
0 citation
[1327] Hierarchical Subtask Discovery with Non-Negative Matrix Factorization
Adam Earle, Andrew Saxe, Benjamin Rosman
ICLR2018 poster
1 citation
[1328] Dynamic Neural Program Embeddings for Program Repair
Ke Wang, Rishabh Singh, Zhendong Su
ICLR2018 poster
10 citation
[1329] Stochastic Activation Pruning for Robust Adversarial Defense
Guneet S Dhillon, Kamyar Azizzadenesheli, Zachary Lipton, Jeremy Bernstein, Jean Kossaifi, Aran Khanna, anima anandkumar
ICLR2018 poster
1 citation
[1330] Do GANs learn the distribution? Some Theory and Empirics
Sanjeev Arora, Andrej Risteski, Yi Zhang
ICLR2018 poster
0 citation
[1331] Learning Parametric Closed-Loop Policies for Markov Potential Games
Sergio Valcarcel Macua, Javier Zazo, Santiago Zazo
ICLR2018 poster
2 citation
[1332] Learning Approximate Inference Networks for Structured Prediction
Lifu Tu, Kevin Gimpel
ICLR2018 poster
0 citation
[1333] Fidelity-Weighted Learning
Mostafa Dehghani, Arash Mehrjou, Stephan Gouws, Jaap Kamps, Bernhard Schoelkopf
ICLR2018 poster
0 citation
[1334] HexaConv
Emiel Hoogeboom, Jorn Peters, Taco Cohen, Max Welling
ICLR2018 poster
3 citation
[1335] Generalizing Across Domains via Cross-Gradient Training
Shiv Shankar, Vihari Piratla, Soumen Chakrabarti, Siddhartha Chaudhuri, Preethi Jyothi, Sunita Sarawagi
ICLR2018 poster
NA
[1336] Understanding image motion with group representations
Andrew Jaegle, Stephen Phillips, Daphne Ippolito, Kostas Daniilidis
ICLR2018 poster
14 citation
[1337] Global Optimality Conditions for Deep Neural Networks
Chulhee Yun, Suvrit Sra, Ali Jadbabaie
ICLR2018 poster
26 citation
[1338] A PAC-Bayesian Approach to Spectrally-Normalized Margin Bounds for Neural Networks
Behnam Neyshabur, Srinadh Bhojanapalli, Nathan Srebro
ICLR2018 poster
5 citation
[1339] Evaluating the Robustness of Neural Networks: An Extreme Value Theory Approach
Tsui-Wei Weng, Huan Zhang, Pin-Yu Chen, Jinfeng Yi, Dong Su, Yupeng Gao, Cho-Jui Hsieh, Luca Daniel
ICLR2018 poster
3 citation
[1340] Sobolev GAN
Youssef Mroueh, Chun-Liang Li, Tom Sercu, Anant Raj, Yu Cheng
ICLR2018 poster
2 citation
[1341] Divide-and-Conquer Reinforcement Learning
Dibya Ghosh, Avi Singh, Aravind Rajeswaran, Vikash Kumar, Sergey Levine
ICLR2018 poster
1 citation
[1342] i-RevNet: Deep Invertible Networks
Joern-Henrik Jacobsen, Arnold W Smeulders, Edouard Oyallon
ICLR2018 poster
0 citation
[1343] Multi-View Data Generation Without View Supervision
Mickael Chen, Ludovic Denoyer, thierry artieres
ICLR2018 poster
3 citation
[1344] Action-dependent Control Variates for Policy Optimization via Stein Identity
Hao Liu, Yihao Feng, Yi Mao, Dengyong Zhou, Jian Peng,
ICLR2018 poster
1 citation
[1345] Model-Ensemble Trust-Region Policy Optimization
Thanard Kurutach, Ignasi Clavera, Yan Duan, Aviv Tamar, Pieter Abbeel
ICLR2018 poster
7 citation
[1346] Generating Wikipedia by Summarizing Long Sequences
Peter J Liu, Mohammad Saleh, Etienne Pot, Ben Goodrich, Ryan Sepassi, Lukasz Kaiser, Noam Shazeer
ICLR2018 poster
6 citation
[1347] Deep Autoencoding Gaussian Mixture Model for Unsupervised Anomaly Detection
Bo Zong, Qi Song, Martin Min, Wei Cheng, Cristian Lumezanu, Daeki Cho, Haifeng Chen
ICLR2018 poster
NEC Lab. America, Washington Stete U.
異常検知のためのDAGMM。オートエンコーダによる圧縮ネットワークと、その表現を使った推定ネットワークの2つの部分から成る。推定ネットワークではガウス混合モデルで、低次元空間のサンプルのエネルギーを求める。KDDCUP(99年のもの。41属性、攻撃か普通か),Thyroid(甲状腺の病気), Arrhythmia(不整脈)などのデータセットで検証。
3 citation
[1348] An efficient framework for learning sentence representations
Lajanugen Logeswaran, Honglak Lee
ICLR2018 poster
7 citation
[1349] Latent Space Oddity: on the Curvature of Deep Generative Models
Georgios Arvanitidis, Lars K Hansen, Søren Hauberg
ICLR2018 poster
3 citation
[1350] N2N learning: Network to Network Compression via Policy Gradient Reinforcement Learning
Anubhav Ashok, Nicholas Rhinehart, Fares Beainy, Kris M Kitani
ICLR2018 poster
0 citation
[1351] Variational Message Passing with Structured Inference Networks
Wu Lin, Nicolas Daniel Hubacher, Mohammad Emtiyaz Khan
ICLR2018 poster
7 citation
[1352] SCAN: Learning Hierarchical Compositional Visual Concepts
Irina Higgins, Nicolas Sonnerat, Loic Matthey, Arka Pal, Christopher P Burgess, Matko Bošnjak, Murray Shanahan, Matthew Botvinick,, Alexander Lerchner
ICLR2018 poster
1 citation
[1353] The Role of Minimal Complexity Functions in Unsupervised Learning of Semantic Mappings
Tomer Galanti, Lior Wolf, Sagie Benaim
ICLR2018 poster
0 citation
[1354] Learning Sparse Latent Representations with the Deep Copula Information Bottleneck
Aleksander Wieczorek, Mario Wieser, Damian Murezzan, Volker Roth
ICLR2018 poster
2 citation
[1355] Learning From Noisy Singly-labeled Data
Ashish Khetan, Zachary Lipton, anima anandkumar
ICLR2018 poster
3 citation
[1356] Gaussian Process Behaviour in Wide Deep Neural Networks
Alexander Matthews, Jiri Hron, Mark Rowland, Richard E Turner, Zoubin Ghahramani
ICLR2018 poster
0 citation
[1357] Critical Points of Linear Neural Networks: Analytical Forms and Landscape Properties
Yi Zhou, Yingbin Liang
ICLR2018 poster
0 citation
[1358] Wavelet Pooling for Convolutional Neural Networks
Travis Williams, Robert Li
ICLR2018 poster
7 citation
[1359] Learning Intrinsic Sparse Structures within Long Short-Term Memory
Wei Wen, Yuxiong He, Samyam Rajbhandari, Minjia Zhang, Wenhan Wang, Fang Liu, Bin Hu, Yiran Chen, Hai Li
ICLR2018 poster
4 citation
[1360] FearNet: Brain-Inspired Model for Incremental Learning
Ronald Kemker, Christopher Kanan
ICLR2018 poster
6 citation
[1361] Variational Inference of Disentangled Latent Concepts from Unlabeled Observations
Abhishek Kumar, Prasanna Sattigeri, Avinash Balakrishnan
ICLR2018 poster
5 citation
[1362] Meta-Learning for Semi-Supervised Few-Shot Classification
Mengye Ren, Eleni Triantafillou, Sachin Ravi, Jake Snell, Kevin Swersky, Joshua B Tenenbaum, Hugo Larochelle, Richard Zemel
ICLR2018 poster
13 citation
[1363] Deep Neural Networks as Gaussian Processes
Jaehoon Lee, Yasaman Bahri, Roman Novak, Samuel S Schoenholz, Jeffrey Pennington, Jascha Sohl-Dickstein
ICLR2018 poster
Google Brain
単一レイヤーの全結合ネットワークは無限の幅があれば、ガウス過程とみなせることは知られている。対応するGPを評価することで、回帰のタスクにおける無限に幅の広いニューラルネットワークにおけるベイズ推論を可能にすることもできる。最近では、多層のランダムニューラルネットワークを模擬するカーネル関数が開発されたが、ベイズ推論の枠組みの外である。したがって従来研究は、これらのカーネルがGPの共分散関数として使え、DNNでの完全なベイズ予測ができることを示していない。
この研究では、無限に幅の広いディープネットワークとGPの厳密な等価性を示す。
0 citation
[1364] Initialization matters: Orthogonal Predictive State Recurrent Neural Networks
Krzysztof Choromanski, Carlton Downey, Byron Boots
ICLR2018 poster
7 citation
[1365] Expressive power of recurrent neural networks
Valentin Khrulkov, Alexander Novikov, Ivan Oseledets
ICLR2018 poster
Skolkovo Inst. of Science and Technology
RNNの表現力について。深いモデルで表せるものを、浅いモデルだと指数的に大きくなる。DLの技術をテンソル分解に対応させて議論。CNNが階層的テンソル分解だったが、RNNはテンソルトレイン分解というのになる。
20 citation
[1366] Defense-GAN: Protecting Classifiers Against Adversarial Attacks Using Generative Models
Pouya Samangouei, Maya Kabkab, Rama Chellappa
ICLR2018 poster
21 citation
[1367] Certified Defenses against Adversarial Examples
Aditi Raghunathan, Jacob Steinhardt, Percy Liang
ICLR2018 poster
1 citation
[1368] Semantic Interpolation in Implicit Models
Yannic Kilcher, Aurelien Lucchi, Thomas Hofmann
ICLR2018 poster
22 citation
[1369] Learning One-hidden-layer Neural Networks with Landscape Design
Rong Ge, Jason Lee, Tengyu Ma
ICLR2018 poster
19 citation
[1370] Thermometer Encoding: One Hot Way To Resist Adversarial Examples
Jacob Buckman, Aurko Roy, Colin Raffel, Ian Goodfellow
ICLR2018 poster
6 citation
[1371] Training GANs with Optimism
Constantinos C Daskalakis, Andrew Ilyas, Vasilis Syrgkanis, Haoyang Zeng
ICLR2018 poster
1 citation
[1372] Hierarchical and Interpretable Skill Acquisition in Multi-task Reinforcement Learning
Tianmin Shu, Caiming Xiong, Richard Socher
ICLR2018 poster
11 citation
[1373] The Reactor: A fast and sample-efficient Actor-Critic agent for Reinforcement Learning
Audrunas Gruslys, Will Dabney, Mohammad Gheshlaghi Azar, Bilal Piot, Marc G Bellemare, Remi Munos
ICLR2018 poster
4 citation
[1374] Distributed Prioritized Experience Replay
Daniel Horgan, John Quan, David Budden, Gabriel Barth-maron, Matteo Hessel, Hado van Hasselt, David Silver
ICLR2018 poster
0 citation
[1375] Adversarial Dropout Regularization
Kuniaki Saito, Yoshitaka Ushiku, Tatsuya Harada, Kate Saenko
ICLR2018 poster
36 citation
[1376] Countering Adversarial Images using Input Transformations
Chuan Guo, Mayank Rana, Moustapha Cisse, Laurens van der Maaten
ICLR2018 poster
Cornell U. FAIR
入力画像を変形して敵対的な変更を取り除く。イメージクロッピング、リスケーリング、ビットの深さ(ピクセルごとのビット)を浅くする、JPEG圧縮をする、分散を最小化するなど。これらを比較している。
11 citation
[1377] Generating Natural Adversarial Examples
Zhengli Zhao, Dheeru Dua, Sameer Singh
ICLR2018 poster
0 citation
[1378] Smooth Loss Functions for Deep Top-k Classification
Leonard Berrada, Andrew Zisserman, M. Pawan Kumar
ICLR2018 poster
1 citation
[1379] Can Neural Networks Understand Logical Entailment?
Richard Evans, David Saxton, David Amos, Pushmeet Kohli, Edward Grefenstette
ICLR2018 poster
DeepMind
論理的含意の新しいデータセットを提案する。含意の予測タスクにおいて、論理表現の構造を掴むことができるのかのモデルの能力を測る。PossibleWorldNetsという新しいモデルも提案(TreeNNを使う)。A, B, A→Bというデータセットで、AやBは命題論理の式。
11 citation
[1380] Many Paths to Equilibrium: GANs Do Not Need to Decrease a Divergence At Every Step
William Fedus, Mihaela Rosca, Balaji Lakshminarayanan, Andrew Dai, Shakir Mohamed, Ian Goodfellow
ICLR2018 poster
4 citation
[1381] Learning Latent Permutations with Gumbel-Sinkhorn Networks
gonzalo mena, David Belanger, Scott Linderman, Jasper Snoek
ICLR2018 poster
3 citation
[1382] Can recurrent neural networks warp time?
Corentin Tallec, Yann Ollivier
ICLR2018 poster
1 citation
[1383] Learning Differentially Private Recurrent Language Models
H. Brendan McMahan, Daniel Ramage, Kunal Talwar, Li Zhang
ICLR2018 poster
9 citation
[1384] Deep Gaussian Embedding of Graphs: Unsupervised Inductive Learning via Ranking
Aleksandar Bojchevski, Stephan Günnemann
ICLR2018 poster
3 citation
[1385] SEARNN: Training RNNs with global-local losses
Rémi Leblond, Jean-Baptiste Alayrac, Anton Osokin, Simon Lacoste-Julien
ICLR2018 poster
4057 citation
[1386] Learning to Teach
Yang Fan, Fei Tian, Tao Qin, Tie-Yan Liu
ICLR2018 poster
U. Sci and Tech of China, MSR
教師エージェントが生徒エージェントに教えることを強化学習で学んでいく。データ、損失関数、仮説空間などを生徒モデルに指定する。(引用数は間違い)
3 citation
[1387] Active Learning for Convolutional Neural Networks: A Core-Set Approach
Ozan Sener, Silvio Savarese
ICLR2018 poster
0 citation
[1388] Sparse Persistent RNNs: Squeezing Large Recurrent Networks On-Chip
Feiwen Zhu, Jeff Pool, Michael Andersch, Jeremy Appleyard, Fung Xie
ICLR2018 poster
10 citation
[1389] WRPN: Wide Reduced-Precision Networks
Asit Mishra, Eriko Nurvitadhi, Jeffrey J Cook, Debbie Marr
ICLR2018 poster
3 citation
[1390] Deep Voice 3: Scaling Text-to-Speech with Convolutional Sequence Learning
Wei Ping, Kainan Peng, Andrew Gibiansky, Sercan Arik, Ajay Kannan, SHARAN NARANG, Jonathan Raiman, John Miller
ICLR2018 poster
NA
[1391] Combining Symbolic Expressions and Black-box Function Evaluations in Neural Programs
Forough Arabshahi, Sameer Singh, anima anandkumar
ICLR2018 poster
UC Irvine
ニューラルプログラミングが複雑なタスクに対応できないのに対して、本論文では記号表記ツリーを用い、ツリーLSTMを適用する。
0 citation
[1392] Debiasing Evidence Approximations: On Importance-weighted Autoencoders and Jackknife Variational Inference
Sebastian Nowozin
ICLR2018 poster
5 citation
[1393] Measuring the Intrinsic Dimension of Objective Landscapes
Chunyuan Li, Heerad Farkhoor, Ruoqian Liu, Jason Yosinski
ICLR2018 poster
NA
[1394] A Hierarchical Model for Device Placement
Azalia Mirhoseini, Anna Goldie, Hieu Pham, Benoit Steiner, Quoc V Le, Jeff Dean
ICLR2018 poster
1 citation
[1395] Synthesizing realistic neural population activity patterns using Generative Adversarial Networks
Manuel Molano-Mazon, Arno Onken, Eugenio Piasini, Stefano Panzeri
ICLR2018 poster
4 citation
[1396] FastGCN: Fast Learning with Graph Convolutional Networks via Importance Sampling
Jie Chen, Tengfei Ma, Cao Xiao
ICLR2018 poster
7 citation
[1397] Learning Robust Rewards with Adverserial Inverse Reinforcement Learning
Justin Fu, Katie Luo, Sergey Levine
ICLR2018 poster
0 citation
[1398] Boundary Seeking GANs
R Devon Hjelm, Athul P Jacob, Adam Trischler, Tong Che, Kyunghyun Cho, Yoshua Bengio
ICLR2018 poster
1 citation
[1399] GANITE: Estimation of Individualized Treatment Effects using Generative Adversarial Nets
Jinsung Yoon, James Jordan, Mihaela v Schaar
ICLR2018 poster
100 citation
[1400] Ensemble Adversarial Training: Attacks and Defenses
Florian Tramer, Alexey Kurakin, Nicolas Papernot, Ian Goodfellow, Dan Boneh, Patrick McDaniel
ICLR2018 poster
Stanford, Google Brain, Penn State U.
敵対的な訓練のときに、ひとつのステップでデータに摂動が入れられるときには、悪い大域的最適値に収束してしまう。アンサンブルにした方法ではうまくいく。
7 citation
[1401] CausalGAN: Learning Causal Implicit Generative Models with Adversarial Training
Murat Kocaoglu, Christopher Snyder, Alexandros Dimakis, Sriram Vishwanath
ICLR2018 poster
NA
[1402] Policy Optimization by Genetic Distillation
Tanmay Gangwani, Jian Peng
ICLR2018 poster
12 citation
[1403] PixelDefend: Leveraging Generative Models to Understand and Defend against Adversarial Examples
Yang Song, Taesup Kim, Sebastian Nowozin, Stefano Ermon, Nate Kushman
ICLR2018 poster
0 citation
[1404] Modular Continual Learning in a Unified Visual Environment
Kevin Feigelis, Blue Sheffer, Daniel L Yamins
ICLR2018 poster
5 citation
[1405] Trust-PCL: An Off-Policy Trust Region Method for Continuous Control
Ofir Nachum, Mohammad Norouzi, Kelvin Xu, Dale Schuurmans
ICLR2018 poster
26 citation
[1406] mixup: Beyond Empirical Risk Minimization
Hongyi Zhang, Moustapha Cisse, Yann N Dauphin, David Lopez-Paz
ICLR2018 poster
3 citation
[1407] Few-shot Autoregressive Density Estimation: Towards Learning to Learn Distributions
Scott Reed, Yutian Chen, Thomas Paine, Aaron v den, S. M. Ali Eslami, Danilo J Rezende, Oriol Vinyals, Nando d Freitas
ICLR2018 poster
4 citation
[1408] Interpretable Counting for Visual Question Answering
Alexander Trott, Caiming Xiong,
ICLR2018 poster
0 citation
[1409] Improving the Universality and Learnability of Neural Programmer-Interpreters with Combinator Abstraction
Da Xiao, Jo-Yu Liao, Xingyuan Yuan
ICLR2018 poster
7 citation
[1410] Variational Continual Learning
Viet Cuong Nguyen, Yingzhen Li, Thang Bui, Richard E Turner
ICLR2018 poster
0 citation
[1411] Loss-aware Weight Quantization of Deep Networks
LU HOU, James Kwok
ICLR2018 poster
1 citation
[1412] Memory Architectures in Recurrent Neural Network Language Models
Dani Yogatama, yishu miao, Gábor Melis, Wang Ling, Adhiguna Kuncoro, Chris Dyer, Phil Blunsom
ICLR2018 poster
2 citation
[1413] Monotonic Chunkwise Attention
Chung-Cheng Chiu, Colin Raffel
ICLR2018 poster
43 citation
[1414] On the State of the Art of Evaluation in Neural Language Models
Gábor Melis, Chris Dyer, Phil Blunsom
ICLR2018 poster
DeepMind
ニューラル言語モデルでいろいろ提案されているが、ハイパーパラメータの条件をきちんと揃えれば、結局、普通のLSTMが一番いいという結論。再帰ハイウェイネットワーク、NAS(ニューラルアーキテクチャサーチ)とも比較しているが、LSTMがよい。Penn Treebank、Wikitext-2, Enwik8で実験。
3 citation
[1415] Fix your classifier: the marginal value of training the last weight layer
Elad Hoffer, Itay Hubara, Daniel Soudry
ICLR2018 poster
4 citation
[1416] VoiceLoop: Voice Fitting and Synthesis via a Phonological Loop
Yaniv Taigman, Lior Wolf, Adam Polyak, Eliya Nachmani
ICLR2018 poster
5 citation
[1417] Learning Sparse Neural Networks through L_0 Regularization
Christos Louizos, Max Welling, Diederik Kingma
ICLR2018 poster
4 citation
[1418] A Scalable Laplace Approximation for Neural Networks
Hippolyt Ritter, Aleksandar Botev, David Barber
ICLR2018 poster
4 citation
[1419] Training Confidence-calibrated Classifiers for Detecting Out-of-Distribution Samples
Kimin Lee, Honglak Lee, Kibok Lee, Jinwoo Shin
ICLR2018 poster
4 citation
[1420] Identifying Analogies Across Domains
Yedid Hoshen, Lior Wolf
ICLR2018 poster
6 citation
[1421] On the importance of single directions for generalization
Ari Morcos, David GT Barrett, Neil C Rabinowitz, Matthew Botvinick
ICLR2018 poster
5 citation
[1422] Bi-Directional Block Self-Attention for Fast and Memory-Efficient Sequence Modeling
Tao Shen, Tianyi Zhou, Guodong Long,, Chengqi Zhang
ICLR2018 poster
2 citation
[1423] Alternating Multi-bit Quantization for Recurrent Neural Networks
Chen Xu, Jianqiang Yao, Zhouchen Lin, Baigui Sun, Yuanbin Cao, Zhirong Wang, Hongbin Zha
ICLR2018 poster
14 citation
[1424] SGD Learns Over-parameterized Networks that Provably Generalize on Linearly Separable Data
Alon Brutzkus, Amir Globerson, Eran Malach, Shai Shalev-Shwartz
ICLR2018 poster
7 citation
[1425] Few-Shot Learning with Graph Neural Networks
Victor Garcia Satorras, Joan Bruna
ICLR2018 poster
0 citation
[1426] Temporally Efficient Deep Learning with Spikes
Peter OConnor, Efstratios Gavves, Matthias Reisser, Max Welling
ICLR2018 poster
11 citation
[1427] Stochastic gradient descent performs variational inference, converges to limit cycles for deep networks
Pratik A Chaudhari, Stefano Soatto
ICLR2018 poster
14 citation
[1428] On Unifying Deep Generative Models
Zhiting Hu,,, Eric P Xing
ICLR2018 poster
1 citation
[1429] Neumann Optimizer: A Practical Optimization Algorithm for Deep Neural Networks
Shankar Krishnan, Ying Xiao, Rif A. Saurous
ICLR2018 poster
NA
[1430] Guide Actor-Critic for Continuous Control
Voot Tangkaratt,, Masashi Sugiyama
ICLR2018 poster
0 citation
[1431] TD or not TD: Analyzing the Role of Temporal Differencing in Deep Reinforcement Learning
Artemij Amiranashvili, Alexey Dosovitskiy, Vladlen Koltun, Thomas Brox
ICLR2018 poster
25 citation
[1432] Neural Map: Structured Memory for Deep Reinforcement Learning
Emilio Parisotto,
ICLR2018 poster
4 citation
[1433] Eigenoption Discovery through the Deep Successor Representation
Marlos C. Machado, Clemens Rosenbaum, Xiaoxiao Guo, Miao Liu, Gerald Tesauro, Murray Campbell
ICLR2018 poster
0 citation
[1434] Learning a neural response metric for retinal prosthesis
Nishal Shah, Sasidhar Madugula, E.J. Chichilnisky, Yoram Singer, Jonathon Shlens
ICLR2018 poster
1 citation
[1435] Self-ensembling for visual domain adaptation
Geoff W French, Michal Mackiewicz, Mark Fisher
ICLR2018 poster
9 citation
[1436] PixelNN: Example-based Image Synthesis
Aayush Bansal, Yaser Sheikh, Deva Ramanan
ICLR2018 poster
0 citation
[1437] Emergent Communication through Negotiation
Kris Cao, Angeliki Lazaridou, Marc Lanctot, Joel Z Leibo, Karl Tuyls, Stephen Clark
ICLR2018 poster
11 citation
[1438] Emergent Communication in a Multi-Modal, Multi-Step Referential Game
Katrina Evtimova, Andrew Drozdov, Douwe Kiela, Kyunghyun Cho
ICLR2018 poster
2 citation
[1439] Stabilizing Adversarial Nets with Prediction Methods
Abhay Kumar Yadav, Sohil Shah, Zheng Xu, David Jacobs, Tom Goldstein
ICLR2018 poster
8 citation
[1440] cGANs with Projection Discriminator
Takeru Miyato, Masanori Koyama
ICLR2018 poster
3 citation
[1441] Emergent Translation in Multi-Agent Communication
Yunjae Lee, Kyunghyun Cho, Jason Weston, Douwe Kiela
ICLR2018 poster
1 citation
[1442] Minimal-Entropy Correlation Alignment for Unsupervised Deep Domain Adaptation
Pietro Morerio, Jacopo Cavazza, Vittorio Murino
ICLR2018 poster
0 citation
[1443] An image representation based convolutional network for DNA classification
Bojian Yin, Marleen Balvert, Davide Zambrano, Alexander Schoenhuth, Sander Bohte
ICLR2018 poster
5 citation
[1444] Overcoming Catastrophic Interference using Conceptor-Aided Backpropagation
Xu He, Herbert Jaeger
ICLR2018 poster
0 citation
[1445] Deep Sensing: Active Sensing using Multi-directional Recurrent Neural Networks
Jinsung Yoon, William R Zame, Mihaela v Schaar
ICLR2018 poster
8 citation
[1446] Non-Autoregressive Neural Machine Translation
Jiatao Gu, James Bradbury, Caiming Xiong, Victor OK Li,
ICLR2018 poster
3 citation
[1447] Compressing Word Embeddings via Deep Compositional Code Learning
Raphael Shu, Hideki Nakayama
ICLR2018 poster
4 citation
[1448] Emergence of grid-like representations by training recurrent neural networks to perform spatial localization
Christopher Cueva, Xue-Xin Wei
ICLR2018 poster
10 citation
[1449] FusionNet: Fusing via Fully-aware Attention with Application to Machine Comprehension
Hsin-Yuan Huang, Chenguang Zhu,, Weizhu Chen
ICLR2018 poster
7 citation
[1450] Depthwise Separable Convolutions for Neural Machine Translation
Lukasz Kaiser, Aidan Gomez, Francois Chollet
ICLR2018 poster
0 citation
[1451] Parallelizing Linear Recurrent Neural Nets Over Sequence Length
Eric Martin, Christopher Cundy
ICLR2018 poster
4 citation
[1452] Large scale distributed neural network training through online distillation
Rohan Anil, Gabriel Pereyra, Alexandre Tachard Passos, Robert Ormandi, George Dahl, Geoffrey E Hinton
ICLR2018 poster
0 citation
[1453] Viterbi-based Pruning for Sparse Matrix with Fixed and High Index Compression Ratio
Dongsoo Lee, Daehyun Ahn, Taesu Kim, Pierce I Chuang, Jae-Joon Kim
ICLR2018 poster
3 citation
[1454] DCN+: Mixed Objective And Deep Residual Coattention for Question Answering
Caiming Xiong, richard socher, Victor Zhong
ICLR2018 poster
4 citation
[1455] Enhancing The Reliability of Out-of-distribution Image Detection in Neural Networks
R. Srikant, Shiyu Liang, Yixuan Li
ICLR2018 poster
7 citation
[1456] Residual Connections Encourage Iterative Inference
Stanislaw Jastrzebski, Devansh Arpit, Nicolas Ballas, Vikas Verma, Tong Che, Yoshua Bengio
ICLR2018 poster
2 citation
[1457] Towards Synthesizing Complex Programs From Input-Output Examples
Xinyun Chen, Chang Liu, dawn song
ICLR2018 poster
23 citation
[1458] Don't Decay the Learning Rate, Increase the Batch Size
Samuel Smith, Pieter-Jan Kindermans, Chris Ying, Quoc V Le
ICLR2018 poster
Google Brain
バッチサイズを増やすことは学習率を落とすことと同様の効果がある。バッチサイズBと学習率εは比例する。また、バッチサイズBとモメンタム係数mから1を引いた値は反比例する。ImageNetのResNet-50を30分で学習した。
NA
[1459] Minimax Curriculum Learning: Machine Teaching with Desirable Difficulties and Scheduled Diversity
Tianyi Zhou, Jeff Bilmes
ICLR2018 poster
66 citation
[1460] A Deep Reinforced Model for Abstractive Summarization
Romain Paulus, Caiming Xiong, richard socher
ICLR2018 poster
Salesforce Research
抽象的な要約。すごい。要約には2種類あり文抽出と抽象的な要約。文中にない語を使う。DLを使った抽象的な要約自体は2016ごろから提案されているが、短い文をより短くするもの。この論文では、NY TImesのデータセットではじめてできた。
6 citation
[1461] Unbiased Online Recurrent Optimization
Corentin Tallec, Yann Ollivier
ICLR2018 poster
0 citation
[1462] Kernel Implicit Variational Inference
Jiaxin Shi, Shengyang Sun, Jun Zhu
ICLR2018 poster
2 citation
[1463] Generative networks as inverse problems with Scattering transforms
Tomas Angles, Stéphane Mallat
ICLR2018 poster
1 citation
[1464] Deep Bayesian Bandits Showdown: An Empirical Comparison of Bayesian Deep Networks for Thompson Sampling
Carlos Riquelme, George Tucker, Jasper Snoek
ICLR2018 poster
5 citation
[1465] Large Scale Optimal Transport and Mapping Estimation
Vivien Seguy, Bharath Bhushan Damodaran, Rémi Flamary, Nicolas Courty, Antoine Rolet, Mathieu Blondel
ICLR2018 poster
17 citation
[1466] Backpropagation through the Void: Optimizing control variates for black-box gradient estimation
Will Grathwohl, Dami Choi, Yuhuai Wu, Geoffrey Roeder, David Duvenaud
ICLR2018 poster
1 citation
[1467] Activation Maximization Generative Adversarial Nets
Zhiming Zhou, Han Cai, Shu Rong, Yuxuan Song, Kan Ren, Weinan Zhang, Jun Wang, Yong Yu
ICLR2018 poster
39 citation
[1468] Parameter Space Noise for Exploration
Matthias Plappert, Rein Houthooft, Prafulla Dhariwal, Szymon Sidor, Richard Chen, Xi Chen, Tamim Asfour, Pieter Abbeel, Marcin Andrychowicz
ICLR2018 poster
OpenAI, KIT, UCB
深層強化学習で探索的行動をするために、パラメータにノイズを入れることがある。進化的な計算ではこういうことをやるが、一回一回の試行が無駄になる。そこで、パラメータのノイズと方策オン/方策オフの強化学習(DQN, DDPG, TRPOなど)をうまく組み合わせる。
0 citation
[1469] RESIDUAL LOSS PREDICTION: REINFORCEMENT LEARNING WITH NO INCREMENTAL FEEDBACK
Hal Daumé III, John Langford, Paul Mineiro, Amr Mohamed Nabil Aly Aly Sharaf
ICLR2018 poster
18 citation
[1470] Mitigating Adversarial Effects Through Randomization
cihang xie, Jianyu Wang, Zhishuai Zhang, Zhou Ren, Alan Yuille
ICLR2018 poster
2 citation
[1471] Understanding Short-Horizon Bias in Stochastic Meta-Optimization
Yuhuai Wu, Mengye Ren, Renjie Liao, Roger Grosse
ICLR2018 poster
4 citation
[1472] Towards Reverse-Engineering Black-Box Neural Networks
Seong Joon Oh, Max Augustin, Mario Fritz, Bernt Schiele
ICLR2018 poster
5 citation
[1473] The High-Dimensional Geometry of Binary Neural Networks
Alexander Anderson, Cory P Berg
ICLR2018 poster
4 citation
[1474] On the Discrimination-Generalization Tradeoff in GANs
Pengchuan Zhang, Qiang Liu, Dengyong Zhou, Tao Xu, Xiaodong He
ICLR2018 poster
0 citation
[1475] Learning Latent Representations in Neural Networks for Clustering through Pseudo Supervision and Graph-based Activity Regularization
Ozsel Kilinc, Ismail Uysal
ICLR2018 poster
7 citation
[1476] Coulomb GANs: Provably Optimal Nash Equilibria via Potential Fields
Thomas Unterthiner, Bernhard Nessler, Calvin Seward, Günter Klambauer, Martin Heusel, Hubert Ramsauer, Sepp Hochreiter
ICLR2018 poster
2 citation
[1477] Learning to Multi-Task by Active Sampling
Sahil Sharma, Ashutosh Kumar Jha, Parikshit Hegde, Balaraman Ravindran
ICLR2018 poster
0 citation
[1478] Learning from Between-class Examples for Deep Sound Recognition
Yuji Tokozume, Yoshitaka Ushiku, Tatsuya Harada
ICLR2018 poster
12 citation
[1479] Emergent Complexity via Multi-Agent Competition
Trapit Bansal, Jakub Pachocki, Szymon Sidor, Ilya Sutskever, Igor Mordatch
ICLR2018 poster
0 citation
[1480] DORA The Explorer: Directed Outreaching Reinforcement Action-Selection
Lior Fox, Leshem Choshen, Yonatan Loewenstein
ICLR2018 poster
6 citation
[1481] Polar Transformer Networks
Carlos Esteves, Christine Allen-Blanchette, Xiaowei Zhou, Kostas Daniilidis
ICLR2018 poster
0 citation
[1482] Compositional Obverter Communication Learning from Raw Visual Input
Edward Choi, Angeliki Lazaridou, Nando d Freitas
ICLR2018 poster
NA
[1483] Auto-Conditioned Recurrent Networks for Extended Complex Human Motion Synthesis
Yi Zhou, Zimo Li, Shuangjiu Xiao, Chong He, Zeng Huang, Hao Li
ICLR2018 poster
NA
[1484] Multi-Task Learning for Document Ranking and Query Suggestion
Wasi Ahmad, Kai-Wei Chang, Hongning Wang
ICLR2018 poster
NA
[1485] Adaptive Quantization of Neural Networks
Soroosh Khoram, Jing Li
ICLR2018 poster
3 citation
[1486] Interactive Grounded Language Acquisition and Generalization in a 2D World
Haonan Yu, Haichao Zhang, Wei Xu
ICLR2018 poster
6 citation
[1487] Hyperparameter optimization: a spectral approach
Elad Hazan, Adam Klivans, Yang Yuan
ICLR2018 poster
3 citation
[1488] Deep Learning with Logged Bandit Feedback
Thorsten Joachims, Adith Swaminathan, Maarten de Rijke
ICLR2018 poster
2 citation
[1489] Generalizing Hamiltonian Monte Carlo with Neural Networks
Daniel Levy, Matthew D Hoffman, Jascha Sohl-Dickstein
ICLR2018 poster
4 citation
[1490] Detecting Statistical Interactions from Neural Network Weights
Michael Tsang, Dehua Cheng, Yan Liu
ICLR2018 poster
0 citation
[1491] Robustness of Classifiers to Universal Perturbations: A Geometric Perspective
Seyed Mohsen Moosavi Dezfooli, Alhussein Fawzi, Omar Fawzi, Pascal Frossard,
ICLR2018 poster
NA
[1492] Adaptive Dropout with Rademacher Complexity Regularization
Ke Zhai, Huan Wang
ICLR2018 poster
1 citation
[1493] Mixed Precision Training
Paulius Micikevicius, SHARAN NARANG, Jonah Alben, Gregory Diamos, Erich K Elsen, David Garcia, Boris Ginsburg, Michael Houston, Oleksii Kuchaiev, Ganesh Venkatesh, Hao Wu
ICLR2018 poster
2 citation
[1494] SpectralNet: Spectral Clustering using Deep Neural Networks
Uri Shaham, Kelly Stanton, Henry (Fangyi) Li, Ronen Basri, Boaz Nadler, Yuval Kluger
ICLR2018 poster
3 citation
[1495] Deep Rewiring: Training very sparse deep networks
Guillaume Bellec, David Kappel, Wolfgang Maass, Robert Legenstein
ICLR2018 poster
27 citation
[1496] A Neural Representation of Sketch Drawings
David Ha, Douglas Eck
ICLR2018 poster
2 citation
[1497] Leveraging Grammar and Reinforcement Learning for Neural Program Synthesis
Rudy Bunel, Matthew Hausknecht, Jacob Devlin, Rishabh Singh, Pushmeet Kohli
ICLR2018 poster
8 citation
[1498] All-but-the-Top: Simple and Effective Postprocessing for Word Representations
Jiaqi Mu, Pramod Viswanath
ICLR2018 poster
3 citation
[1499] Graph Attention Networks
Petar Veličković, Guillem Cucurull Preixens, Arantxa Casanova Paga, Adriana Romero, Pietro Liò, Yoshua Bengio
ICLR2018 poster
4 citation
[1500] Towards better understanding of gradient-based attribution methods for Deep Neural Networks
Marco Ancona, Enea Ceolini, Cengiz Öztireli, Markus Gross
ICLR2018 poster
0 citation
[1501] Critical Percolation as a Framework to Analyze the Training of Deep Networks
Zohar Ringel, Rodrigo Andrade de Bem
ICLR2018 poster
3 citation
[1502] Learning to Count Objects in Natural Images for Visual Question Answering
Yan Zhang, Jonathon Hare, Adam Prugel-Bennett
ICLR2018 poster
5 citation
[1503] Variational image compression with a scale hyperprior
Johannes Ballé, David Minnen, Saurabh Singh, Sung Jin Hwang, Nick Johnston
ICLR2018 poster
4 citation
[1504] NerveNet: Learning Structured Policy with Graph Neural Networks
Tingwu Wang, Renjie Liao, Jimmy Ba, Sanja Fidler
ICLR2018 poster
7 citation
[1505] Proximal Backpropagation
Thomas Frerix, Thomas Möllenhoff, Michael Moeller, Daniel Cremers
ICLR2018 poster
0 citation
[1506] On the Expressive Power of Overlapping Architectures of Deep Learning
Or Sharir, Amnon Shashua
ICLR2018 poster
22 citation
[1507] The Implicit Bias of Gradient Descent on Separable Data
Daniel Soudry, Elad Hoffer, Mor Shpigel Nacson, Nathan Srebro
ICLR2018 poster
7 citation
[1508] Multi-level Residual Networks from Dynamical Systems View
Bo Chang, Lili Meng, Eldad Haber, Frederick Tung, David Begert
ICLR2018 poster
1 citation
[1509] TRAINING GENERATIVE ADVERSARIAL NETWORKS VIA PRIMAL-DUAL SUBGRADIENT METHODS: A LAGRANGIAN PERSPECTIVE ON GAN
Xu Chen, Jiang Wang, Hao Ge
ICLR2018 poster
4 citation
[1510] Implicit Causal Models for Genome-wide Association Studies
Dustin Tran, David Blei
ICLR2018 poster
1 citation
[1511] Unsupervised Cipher Cracking Using Discrete GANs
Aidan Gomez, Sicong(Sheldon) Huang, Ivan Zhang, Bryan M Li, Muhammad Osama, Lukasz Kaiser
ICLR2018 poster
15 citation
[1512] Semantically Decomposing the Latent Spaces of Generative Adversarial Networks
Chris Donahue, Zachary Lipton, Akshay Balsubramani, Julian McAuley
ICLR2018 poster
0 citation
[1513] Not-So-Random Features
Brian Bullins, Cyril Zhang, Yi Zhang
ICLR2018 poster
11 citation
[1514] A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Samuel Smith, Quoc V Le
ICLR2018 poster
0 citation
[1515] Memorization Precedes Generation: Learning Unsupervised GANs with Memory Networks
Youngjin Kim, Minjung Kim, Gunhee Kim
ICLR2018 poster
77 citation
[1516] Reinforcement Learning Algorithm Selection
Romain Laroche, Raphaël Féraud
ICLR2018 poster
MSR Maluuba, Orange Labs
強化学習のどの手法を使うかを選択するメタ学習。ESBAS(新確率バンディットアルゴリズム選択)。
7 citation
[1517] Improving GANs Using Optimal Transport
Tim Salimans, Han Zhang, Alec Radford, Dimitris Metaxas
ICLR2018 poster
4 citation
[1518] Efficient Sparse-Winograd Convolutional Neural Networks
Xingyu Liu, Jeff Pool, song han, Bill Dally
ICLR2018 poster
4 citation
[1519] Progressive Reinforcement Learning with Distillation for Multi-Skilled Motion Control
Glen Berseth, Cheng Xie, Paul Cernek, Michiel van de Panne
ICLR2018 poster
7 citation
[1520] An Online Learning Approach to Generative Adversarial Networks
Paulina Grnarova, Kfir Y Levy, Aurelien Lucchi, Thomas Hofmann, Andreas Krause
ICLR2018 poster
NA
[1521] Espresso: Efficient Forward Propagation for Binary Deep Neural Networks
Fabrizio Pedersoli, George Tzanetakis, Andrea Tagliasacchi
ICLR2018 poster
1 citation
[1522] Learning Wasserstein Embeddings
Nicolas Courty, Rémi Flamary, Mélanie Ducoffe
ICLR2018 poster
5 citation
[1523] Towards Neural Phrase-based Machine Translation
Po-Sen Huang, Chong Wang, Sitao Huang, Dengyong Zhou, Li Deng
ICLR2018 poster
32 citation
[1524] Noisy Networks For Exploration
Meire Fortunato, Mohammad Gheshlaghi Azar, Bilal Piot, Jacob Menick, Matteo Hessel, Ian Osband, Alex Graves, Volodymyr Mnih, Remi Munos, Demis Hassabis, Olivier Pietquin, Charles Blundell, Shane Legg
ICLR2018 poster
0 citation
[1525] Unsupervised Learning of Goal Spaces for Intrinsically Motivated Goal Exploration
Alexandre Péré, Sébastien Forestier, Olivier Sigaud, Pierre-Yves Oudeyer
ICLR2018 poster
23 citation
[1526] Deep Learning and Quantum Entanglement: Fundamental Connections with Implications to Network Design
Yoav Levine, David Yakira, Nadav Cohen, Amnon Shashua
ICLR2018 poster
1 citation
[1527] Training wide residual networks for deployment using a single bit for each weight
Mark D. McDonnell
ICLR2018 poster
6 citation
[1528] Skip RNN: Learning to Skip State Updates in Recurrent Neural Networks
Víctor Campos, Brendan Jou, Xavier Giro-i-Nieto, Jordi Torres, Shih-Fu Chang
ICLR2018 poster
8 citation
[1529] Recasting Gradient-Based Meta-Learning as Hierarchical Bayes
Erin Grant, Chelsea Finn, Sergey Levine, Trevor Darrell, Thomas L Griffiths
ICLR2018 poster
4 citation
[1530] Learning Discrete Weights Using the Local Reparameterization Trick
Oran Shayer, Dan Levi, Ethan Fetaya
ICLR2018 poster
39 citation
[1531] Regularizing and Optimizing LSTM Language Models
Stephen Merity, Nitish Shirish Keskar, richard socher
ICLR2018 poster
7 citation
[1532] Active Neural Localization
Devendra Singh Chaplot, Emilio Parisotto,
ICLR2018 poster
8 citation
[1533] Memory Augmented Control Networks
Arbaaz Khan, Clark Zhang, Nikolay Atanasov, Konstantinos Karydis, Vijay Kumar, Daniel D Lee
ICLR2018 poster
1 citation
[1534] Learning how to explain neural networks: PatternNet and PatternAttribution
Pieter-Jan Kindermans, Kristof T Schütt, Maximilian Alber, Klaus R Muller, Dumitru Erhan, Been Kim, Sven Dähne
ICLR2018 poster
NA
[1535] A New Method of Region Embedding for Text Classification
Chao Qiao, Bo Huang, Guocheng Niu, daren li, daxiang dong, wei he, Dianhai Yu, hua wu
ICLR2018 poster
0 citation
[1536] Distributed Fine-tuning of Language Models on Private Data
Vadim Popov, Mikhail Kudinov, Irina Piontkovskaya, Petr Vytovtov, Alex Nevidomsky
ICLR2018 poster
0 citation
[1537] Automatically Inferring Data Quality for Spatiotemporal Forecasting
Sungyong Seo, Arash Mohegh, George Ban-Weiss, Yan Liu
ICLR2018 poster
0 citation
[1538] Empirical Risk Landscape Analysis for Understanding Deep Neural Networks
Pan Zhou, Jiashi Feng, Pan Zhou
ICLR2018 poster
0 citation
[1539] Decoupling the Layers in Residual Networks
Ricky Fok, Aijun An, Zana Rashidi, Xiaogang Wang
ICLR2018 poster
1 citation
[1540] Learning to cluster in order to transfer across domains and tasks
Yen-Chang Hsu, Zhaoyang Lv, Zsolt Kira
ICLR2018 poster
12 citation
[1541] Natural Language Inference over Interaction Space
Yichen Gong, Heng Luo, Jian Zhang
ICLR2018 poster
1 citation
[1542] Consequentialist conditional cooperation in social dilemmas with imperfect information
Alex Peysakhovich, Adam Lerer
ICLR2018 poster
106 citation
[1543] Synthesizing the preferred inputs for neurons in neural networks via deep generator networks (2016)
Anh Nguyen, Alexey Dosovitskiy, Jason Yosinski, Thomas Brox, Jeff Clune
2016
15 citation
[1544] Improving zero-shot transfer in reinforcement learning (2017)
a
2017
23 citation
[1545] Using simulation and domain adaptation to improve efficiency of deep robotic grasping (2017)
Konstantinos Bousmalis, Alex Irpan, Paul Wohlhart, Yunfei Bai, Matthew Kelcey, Mrinal Kalakrishnan, Laura Downs, Julian Ibarz, Peter Pastor, Kurt Konolige, Sergey Levine, Vincent Vanhoucke
2017
Google Brain
Grasp GAN。シミュレーションをうまく活用している。実際の画像と合成したものを区別できないようにするGANを作り、そのデータを把持の判定のCNNに入れている。
23 citation
[1546] On Learning to Think: Algorithmic Information Theory for Novel Combinations of RL Controllers and RNN World Models (2015)
Jurgen Schmidhuber
2015
The Swiss AI Lab
SchmidhuberさんのRNNを使った世界モデルのコンセプトペーパーのような大作。
1 citation
[1547] Composable Deep Reinforcement Learning for Robotic Manipulation (2018)
Tuomas Haarnoja, Vitchyr Pong, Aurick Zhou, Murtaza Dalal, Pieter Abbeel, Sergey Levine
2018
UCB
ソフトQ学習を使って、最大エントロピーの方策を学習し、マニュピレーション用のロボットに適用。簡単なタスクを組み合わせる構成性(compositionality)もあり。
557 citation
[1548] World Models (2018)
David Ha, Jürgen Schmidhuber
2018
INDSIA
まさにという感じ。VAEで次元を圧縮して、VAEでモデル化。その上で簡単なコントローラーで強化学習。車のゲームで従来よりも良い。また、夢モードで学習して、それを実際にもっていくようなことも。(引用数は間違い)
104 citation
[1549] Learning Contact-Rich Manipulation Skills with Guided Policy Search (2015)
a
2015
203 citation
[1550] High-Dimensional Continuous Control Using Generalized Advantage Estimation (2015)
a
2015
587 citation
[1551] Infinite-horizon policy-gradient estimation: temporally decomposed policy gradient (2001)
a
2001
522 citation
[1552] Reinforcement learning of motor skills with policy gradients (2008)
a
2008
2122 citation
[1553] Simple statistical gradient-following algorithms for connectionist reinforcement learning (1992)
Ronald J. Williams
1992
Northeastern U.
REINFORCEの提案。
1 citation
[1554] From virtual demonstration to real-world manipulation using LSTM and MDN (2018)
Rouhollah Rahmatizadeh, Pooya Abolghasemi, Aman Behal, Ladislau Bölöni
2016, AAAI2018
U. Central Florida
シミュレータ上で模倣学習をしてそれを実ロボットに転移させる。持ち上げて置く、動かすの2つのタスク。
119 citation
[1555] A Machine Learning Approach to Visual Perception of Forest Trails for Mobile Robots (2015)
Alessandro Giusti, Jérôme Guzzi, Dan C. Ciresan, Fang-Lin He, Juan P. Rodríguez, Flavio Fontana, Matthias Faessler, Christian Forster, Jürgen Schmidhuber, Gianni Di Caro, Davide Scaramuzza, Luca M. Gambardella
IEEE Robotics and Automation, 2015
IDSIA