为了引入不确定性和多找一个发论文的话题,MAML 还可以用贝叶斯视角来理解。
# MAML 回顾
在之前的一篇文章中已经介绍了 MAML(Model-Agnostic Meta-Learning),一种 gradient-based 的 meta-learning 方法。其目标是学习出一组初始化参数 ,对于任意任务 ,这个初始化参数都能在一步或极少步梯度下降中就快速达到最优参数解 。
大致回顾一下它的算法流程,对于采样出的任务 :
inner loop(meta-learner):在 的 support set 上计算梯度并更新参数,得到更新后的参数 。 只是一个临时参数,并不会作为最终的更新:
outer loop:用 在 query set 上计算损失,然后对 求梯度,并在 上更新出最终的参数:
所以它的优化目标可以总结为:
# 参考
Properties of Good Meta-Learning Algorithms (And How to Achieve Them). Chelsea Finn. ICML 2018 AutoML Workshop (Talk).