赶上最新的AI论文

NeurIPS2020 Highlights

调查

Conference on Neural Information Processing Systems (NIPS) 是全球领先的机器学习会议,由于coivd-19大流行,将于2020年在线举行。这是一个会议的摘要。下面是关于这个总结的一些信息。

本摘要由Paper Digest团队整理成一个平台,叫Paper Digest。Paper Digest是一个科技知识图文分析平台,用于跟踪、总结、搜索科学文献。Paper Digest团队也将是一个纽约的研究小组,致力于文本分析。文本分析是为了出成果。我们这次发布的文章是经过授权的,可以转载他们的伟大工作。

我们这次发表的是经授权转载他们的精彩工作在我们的文章中。 

原文还附有代码,有兴趣的朋友可以在这里查看。如果你对它感兴趣,你可以在这里浏览。

 

TITLE

HIGHLIGHT

1

A graph similarity for deep learning

们采用核距离,并提出了transform-sum-cat为聚合变换的替代方法,以反映邻域聚合中节点邻域之间的连续相似性。

2

An Unsupervised Information-Theoretic Perceptual Quality Metric

们将信息理论目标函数的最新进展与基于人类视觉系统生理学的计算架构以及对成对的视频帧的无监督训练相结合,从而产生了感知信息量度(PIM)。

3

Self-Supervised MultiModal Versatile Networks

这项工作中,我们通过利用视频中自然存在的三种模式来学习使用自我监督的表示形式:视觉,音频和语言流。

4

Benchmarking Deep Inverse Models over time, and the Neural-Adjoint method

们考虑解决通用逆问题的任务,其中希望确定自然系统的隐藏参数,这些参数将引起一组特定的测量。

5

Off-Policy Evaluation and Learning for External Validity under a Covariate Shift

在本文中,我们推导了协变量平移下OPE的效率边界。

6

Neural Methods for Point-wise Dependency Estimation

这项工作中,我们没有估计预期的依赖关系,而是着重估计逐点依赖关系(PD),它定量地衡量了两种结果同时发生的可能性。

7

Fast and Flexible Temporal Point Processes with Triangular Maps

过利用归一化流领域的最新发展,我们设计了TriTPP –一种新的非经常性TPP模型,可以在其中并行进行采样和似然计算。

8

Backpropagating Linearly Improves Transferability of Adversarial Examples

在本文中,我们研究了此类示例的可移植性,从而为DNN上的许多黑盒攻击奠定了基础。

9

PyGlove: Symbolic Programming for Automated Machine Learning

在本文中,我们介绍了一种基于符号编程的AutoML编程新方法。

10

Fourier Sparse Leverage Scores and Approximate Kernel Learning

们证明了在高斯和拉普拉斯度量下傅立叶稀疏函数的杠杆得分的新的明确上限。

11

Improved Algorithms for Online Submodular Maximization via First-order Regret Bounds

这项工作中,我们给出了一种通过利用在线线性优化的后悔边界来改善在线子模最大化的后悔边界的一般方法。

12

Synbols: Probing Learning Algorithms with Synthetic Datasets

这个意义上讲,我们引入了Synbols(合成符号),该工具用于快速生成具有在低分辨率图像中呈现的大量潜在特征的新数据集。

13

Adversarially Robust Streaming Algorithms via Differential Privacy

们在流算法的对抗性鲁棒性和差异隐私概念之间建立了联系。

14

Trading Personalization for Accuracy: Data Debugging in Collaborative Filtering

在本文中,我们提出了一种数据调试框架,以识别过度个性化的评分,该评分的存在会降低给定协作过滤模型的性能。

15

Cascaded Text Generation with Markov Transformers

这项工作提出了具有亚线性并行时间生成的自回归模型。

16

Improving Local Identifiability in Probabilistic Box Embeddings

这项工作中,我们使用最小和最大Gumbel分布对框参数进行建模,选择这些参数时应确保在交点操作下空间仍然封闭。

17

Permute-and-Flip: A new mechanism for differentially private selection

这项工作中,我们基于对隐私约束的仔细分析,提出了用于此任务的新机制。

18

Deep reconstruction of strange attractors from time series

经典分析技术启发,对混沌吸引子进行部分观测,我们引入了一种用于单变量和多变量时间序列的通用嵌入技术,该技术由训练有新的潜在空间损失函数的自动编码器组成。

19

Reciprocal Adversarial Learning via Characteristic Functions

们通过比较分布而不是通过一个功能强大的工具即特征函数(CF)来比较它们的矩来对此进行归纳,该工具唯一且通用地包含有关分布的所有信息。

20

Statistical Guarantees of Distributed Nearest Neighbor Classification

过多数表决,就遗憾而言,分布式最近邻分类器达到与其oracle版本相同的收敛速度,直至仅取决于数据维的乘法常数。

21

Stein Self-Repulsive Dynamics: Benefits From Past Samples

们提出了一种新的斯坦因自排斥动力学,用于从难处理的非标准化分布中获得多样化的样本。

22

The Statistical Complexity of Early-Stopped Mirror Descent

在本文中,我们研究了针对线性模型和核方法的平方损失的早期停止的无约束镜像下降算法应用于不规则经验风险的统计风险保证。

23

Algorithmic recourse under imperfect causal knowledge: a probabilistic approach

为了解决这一局限性,我们提出了两种概率方法来选择在有限的因果知识(例如,仅因果图)下以高概率实现追索的最佳行动。

24

Quantitative Propagation of Chaos for SGD in Wide Neural Networks

在本文中,我们研究了应用于两层超参数化神经网络的随机梯度下降(SGD)算法的连续时间对应物的极限行为,即神经元或神经元(即隐藏层的大小)$ N ¥¥plusinfty $

25

A Causal View on Robustness of Neural Networks

们提出了针对输入操作的神经网络鲁棒性的因果观点,该观点不仅适用于传统分类任务,而且适用于一般测量数据。

26

Minimax Classification with 0-1 Loss and Performance Guarantees

本文介绍了不依赖替代损失和规则族的选择的最小最大风险分类器(MRC)。

27

How to Learn a Useful Critic? Model-based Action-Gradient-Estimator Policy Optimization

在本文中,我们提出基于策略梯度理论的基于模型的行为者评论算法MAGE该算法可明确学习动作值梯度。

28

Coresets for Regressions with Panel Data

本文介绍了用于面板数据设置回归问题的核心集问题。

29

Learning Composable Energy Surrogates for PDE Order Reduction

为了解决这个问题,我们利用参数化模块化结构来学习组件级代理,从而实现更便宜的高保真仿真。

30

Efficient Contextual Bandits with Continuous Actions

们针对具有未知结构的连续动作的情境强盗创建了一种易于计算的学习算法。

31

Achieving Equalized Odds by Resampling Sensitive Attributes

们为学习预测模型提供了一个灵活的框架,该模型大致满足公平的均等赔率概念。

32

Multi-Robot Collision Avoidance under Uncertainty with Probabilistic Safety Barrier Certificates

本文旨在提出一种避免测量不确定度和运动不确定度的碰撞避免方法。

33

Hard Shape-Constrained Kernel Machines

在本文中,我们证明了对函数导数的硬仿射形状约束可以在内核机器中进行编码,这是机器学习和统计中最灵活,功能最强大的工具之一。

34

A Closer Look at the Training Strategy for Modern Meta-Learning

支持/查询(S / Q)情景训练策略已广泛用于现代元学习算法中,并被认为可以提高其测试环境的泛化能力。本文对泛化训练策略进行了理论研究。

35

On the Value of Out-of-Distribution Testing: An Example of Goodhart's Law

们提供短期和长期的解决方案,以避免这些陷阱,并实现OOD评估的好处。

36

Generalised Bayesian Filtering via Sequential Monte Carlo

们介绍了在似然错误指定情况下在一般状态空间隐马尔可夫模型(HMM)中进行推理的框架。

37

Deterministic Approximation for Submodular Maximization over a Matroid in Nearly Linear Time

们研究了在拟阵条件约束下最大化非单调,非负子模函数的问题。

38

Flows for simultaneous manifold learning and density estimation

们介绍了流形学习流(β流),这是一类新的生成模型,可同时学习数据流形和该流形上的可处理概率密度。

39

Simultaneous Preference and Metric Learning from Paired Comparisons

在本文中,我们考虑了当距离度量是未知的Mahalanobis度量时学习用户偏好的理想点表示的问题。

40

Efficient Variational Inference for Sparse Deep Learning with Theoretical Guarantee

在本文中,我们在先验和先验先验条件下训练经过完全贝叶斯处理的稀疏深​​度神经网络,并通过连续放松伯努利分布来开发一组计算有效的变分推论。

41

Learning Manifold Implicitly via Explicit Heat-Kernel Learning

在本文中,我们提出了隐式流形学习的概念,其中通过学习相关的热核来隐式获得流形信息。

42

Deep Relational Topic Modeling via Graph Poisson Gamma Belief Network

为了更好地利用文档网络,我们首先提出图泊松因子分析(GPFA),该模型构造了互连文档的概率模型,还提供了闭式Gibbs样更新方程,超越了现有RTM的复杂近似假设。

43

One-bit Supervision for Image Classification

本文提出了一比特监督,这是一种在图像分类的情况下从不完整注释中学习的新设置。

44

What is being transferred in transfer learning?

在本文中,我们提供了新的工具和分析来解决这些基本问题。

45

Submodular Maximization Through Barrier Functions

在本文中,我们介绍了一种受约束的子模最大化的新技术,该技术受连续优化中的势垒函数的启发。

46

Neural Networks with Recurrent Generative Feedback

所提出的框架称为带反馈卷积神经网络(CNN-F),它向现有CNN构引入了具有潜在变量的生成反馈,其中在贝叶斯框架下通过交替MAP推断做出一致的预测。

47

Learning to Extrapolate Knowledge: Transductive Few-shot Out-of-Graph Link Prediction

受此挑战的驱使,我们引入了一个鲜为人知的图外链接预测的现实问题,在该问题中,我们不仅像传统的知​​识外链接预测任务中那样,预测可见节点与不可见节点之间的链接,而且看不见的节点,每个节点只有很少的边缘。

48

Exploiting weakly supervised visual patterns to learn from partial annotations

相反,在本文中,我们利用图像和标签之间的关系从未注释的标签中获取更多的监督信号。

49

Improving Inference for Neural Image Compression

们考虑使用深潜变量模型进行有损图像压缩的问题。

50

Neuron Merging: Compensating for Pruned Neurons

这项工作中,我们提出了一种适用于完全连接层和卷积层的神经元合并的新概念,该概念可以补偿由于修剪的神经元/过滤器而导致的信息丢失。

51

FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence

在本文中,我们提出了FixMatch该算法可以极大地简化现有SSL方法。

52

Reinforcement Learning with Combinatorial Actions: An Application to Vehicle Routing

们开发了一个具有组合动作空间的基于价值函数的深度强化学习框架,在该框架中,动作选择问题明确地表述为混合整数优化问题。

53

Towards Playing Full MOBA Games with Deep Reinforcement Learning

在本文中,我们提出了一种MOBA AI习范例,该方法可以在方法上实现使用深度强化学习玩完整的MOBA戏。

54

Rankmax: An Adaptive Projection Alternative to the Softmax Function

这项工作中,我们提出了一种使该参数适合于各个训练示例的方法。

55

Online Agnostic Boosting via Regret Minimization

这项工作中,我们提供了第一个不可知的在线提升算法;也就是说,给定一个弱学习者仅具有微不足道的后悔保证,我们的算法会将其提升为具有次线性后悔的强大学习者。

56

Causal Intervention for Weakly-Supervised Semantic Segmentation

们提出了一种因果推理框架来改善弱监督语义分割(WSSS)。

57

Belief Propagation Neural Networks

为了弥合这一差距,我们引入了置信传播神经网络(BPNN),这是一类对因子图进行操作并推广置信度传播(BP)的参数化运算符。

58

Over-parameterized Adversarial Training: An Analysis Overcoming the Curse of Dimensionality

们的工作证明,在自然假设和ReLU激活下,对于¥emph {项式}宽度而不是指数,可以降低鲁棒训练损失。

59

Post-training Iterative Hierarchical Data Augmentation for Deep Networks

在本文中,我们提出了一种新的迭代层次数据扩充(IHDA)方法,以对经过训练的深度神经网络进行微调,以提高其泛化性能。

60

Debugging Tests for Model Explanations

们调查事后模型解释是否对诊断模型错误(模型调试)有效。

61

Robust compressed sensing using generative models

在本文中,我们提出一种受均值中位数(MOM启发的算法。

62

Fairness without Demographics through Adversarially Reweighted Learning

这项工作中,我们通过提出对抗性加权学习(ARL)来解决这个问题。

63

Stochastic Latent Actor-Critic: Deep Reinforcement Learning with a Latent Variable Model

这项工作中,我们通过显式学习可以加速从图像进行强化学习的潜在表示,分别解决这两个问题。

64

Ridge Rider: Finding Diverse Solutions by Following Eigenvectors of the Hessian

在本文中,我们提出了一种不同的方法。我们没有遵循对应于局部贪婪方向的梯度,而是遵循了Hessian的特征向量。

65

The route to chaos in routing games: When is price of anarchy too optimistic?

们使用实际游戏成本研究MWU,而未将成本归一化为$ [0,1] $

66

Online Algorithm for Unsupervised Sequential Selection with Contextual Information

在本文中,我们研究了上下文无监督顺序选择(USS),它是一种随机上下文强盗问题的新变体,其中无法从观察到的反馈中推断出手臂的损失。

67

Adapting Neural Architectures Between Domains

本文旨在通过领域自适应来改善神经体系结构的一般化。

68

What went wrong and when?\\ Instance-wise feature importance for time-series black-box models

们提出FIT该框架通过量化预测分布随时间的变化来评估多元时间序列黑盒模型的观测结果的重要性。

69

Towards Better Generalization of Adaptive Gradient Methods

为了弥补这一差距,我们建议使用¥textit {¥textbf {S}¥textbf {A}自适¥¥textbf {G}辐射¥¥textbf {D} escent}¥textsc {SAGD}进行非凸优化,以利用差异隐私提高自适应梯度法的泛化性能。

70

Learning Guidance Rewards with Trajectory-space Smoothing

本文的思路与此相同-从涉及轨迹空间平滑的替代RL标开始,我们得出了一种学习指导奖励的新算法。

71

Variance Reduction via Accelerated Dual Averaging for Finite-Sum Optimization

在本文中,我们介绍了一种简化和统一的有限和凸优化方法,称为¥emph {过加速双重平均(VRADA)减少方差}

72

Tree! I am no Tree! I am a low dimensional Hyperbolic Embedding

在本文中,我们通过采用度量优先的方法探索了一种学习双曲表示的新方法。

73

Deep Structural Causal Models for Tractable Counterfactual Inference

们为使用深度学习组件构建结构因果模型(SCM)制定了一般框架。

74

Convolutional Generation of Textured 3D Meshes

们工作的关键贡献在于将网格和纹理编码为2D表示,这些表示在语义上是对齐的,并且可以通过2DGAN轻松建模。

75

A Statistical Framework for Low-bitwidth Training of Deep Neural Networks

在本文中,我们通过提供用于分析FQT算法的统计框架来解决此问题。

76

Better Set Representations For Relational Reasoning

为了解决此限制,我们提出了一个简单而通用的网络模块,称为Set Refiner NetworkSRN)。

77

AutoSync: Learning to Synchronize for Data-Parallel Distributed Deep Learning

在本文中,我们开发了模型和资源相关的同步表示形式,它统一了从架构,消息分区,布局方案到通信拓扑的多个同步方面。

78

A Combinatorial Perspective on Transfer Learning

这项工作中,我们研究了模块化解决方案的学习如何能够有效地将未见的和可能不同分布的数据进行概括。

79

Hardness of Learning Neural Networks with Natural Weights

们证明了这方面的负面结果,并表明对于深度2元的网络以及许多自然权重分布(例如正态分布和均匀分布),大多数网络都很难学习。

80

Higher-Order Spectral Clustering of Directed Graphs

基于有向图的埃尔米特矩阵表示法,我们提出了一种近线性的有向图聚类时间算法,并进一步证明了我们提出的算法可以在合理的假设下以亚线性时间实现。

81

Primal-Dual Mesh Convolutional Neural Networks

们提出了一种将两种方法的优点结合起来的方法,同时解决了它们的局限性:我们将从图神经网络文献中得出的原始对偶框架扩展到三角形网格,并在由输入网格。

82

The Advantage of Conditional Meta-Learning for Biased Regularization and Fine Tuning

们通过条件元学习解决此限制,将条件函数将任务的辅助信息映射到适合手头任务的元参数向量中。

83

Watch out! Motion is Blurring the Vision of Your Deep Neural Networks

们提出了一种新颖的对抗攻击方法,该方法可以生成视觉上自然运动模糊的对抗示例,称为基于运动的对抗模糊攻击(ABBA)。

84

Sinkhorn Barycenter via Functional Gradient Descent

在本文中,我们考虑了在Sinkhorn散度下计算一组概率分布的重心的问题。

85

Coresets for Near-Convex Functions

们提出了一个通用的框架,用于计算损失函数的敏感性(从而称为核心集),我们将其称为近凸函数。

86

Bayesian Deep Ensembles via the Neural Tangent Kernel

们通过向每个合奏成员添加计算上易处理,随机且不可训练的函数,对标准深度合奏训练进行简单修改,从而可以在无限宽度范围内进行后验解释。

87

Improved Schemes for Episodic Memory-based Lifelong Learning

在本文中,我们从优化的角度提供了基于情景记忆的方法的第一个统一视图。

88

Adaptive Sampling for Stochastic Risk-Averse Learning

们提出了一种自适应采样算法,用于随机优化损失分布的{¥em条件风险值(CVaR}该算法可在最困难的示例的¥¥alpha分数上衡量其性能。

89

Deep Wiener Deconvolution: Wiener Meets Deep Learning for Image Deblurring

们结合经典技术和深度学习,提出了一种简单有效的非盲图像去模糊方法。

90

Discovering Reinforcement Learning Algorithms

本文介绍了一种新的元学习方法,该方法可发现整个更新规则,该规则包括通过与一组环境进行交互来预测的内容(例如,值函数)以及如何从中学习的内容(例如,引导程序)。

91

Taming Discrete Integration via the Boon of Dimensionality

这项工作的主要贡献是通过有效减少模型模型的离散集成来解决这一可扩展性挑战。

92

Blind Video Temporal Consistency via Deep Video Prior

为了解决这个问题,我们提出了一种新颖且通用的盲视频时间一致性方法。

93

Simplify and Robustify Negative Sampling for Implicit Collaborative Filtering

在本文中,我们首先通过经验观察来提供对负数实例的新颖理解,只有很少几个实例对模型学习具有潜在的重要意义,而假负数往往在许多训练迭代中具有稳定的预测。

94

Model Selection for Production System via Automated Online Experiments

们提出了一种自动化的在线实验机制,该机制可以通过少量在线实验从大量模型中高效地执行模型选择。

95

On the Almost Sure Convergence of Stochastic Gradient Descent in Non-Convex Problems

在本文中,我们分析了随机梯度下降(SGD)的轨迹,旨在了解它们在非凸问题中的收敛特性。

96

Automatic Perturbation Analysis for Scalable Certified Robustness and Beyond

在本文中,我们通过将现有的LiRPA算法(例如CROWN)推广到通用计算图上,开发了一个自动框架,可对任何神经网络结构进行扰动分析。

97

Adaptation Properties Allow Identification of Optimized Neural Codes

这里,我们解决了一个反问题:根据有效编码如何适应不同的刺激分布,对有效编码似乎是最佳的目标和约束函数进行表征。

98

Global Convergence and Variance Reduction for a Class of Nonconvex-Nonconcave Minimax Problems

这项工作中,我们表明,对于满足所谓的两面Polyak- {¥L} ojasiewicz不等式的非凸-非凹目标的子类,交替梯度下降上升(AGDA)算法以线性速率全局收敛,并且是随机的AGDA达到亚线性速率。

99

Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal Sample Complexity

在本文中,我们旨在解决有关基于模型的MARL样本复杂性的根本性开放性问题。

100

Conservative Q-Learning for Offline Reinforcement Learning

在本文中,我们提出了保守的Q习(CQL),其目的是通过学习保守的Q函数来解决这些限制,从而使该Q函数下的策略的期望值降低其真实值。

101

Online Influence Maximization under Linear Threshold Model

在本文中,我们针对线性阈值(LT)模型中的OIM

102

Ensembling geophysical models with Bayesian Neural Networks

们开发了一种新的数据驱动的整合策略,以使用贝叶斯神经网络组合地球物理模型,该模型可以推断时空变化的模型权重和偏差,同时考虑观测值中的异方差不确定性。

103

Delving into the Cyclic Mechanism in Semi-supervised Video Object Segmentation

在本文中,我们尝试将循环机制与半监督视频对象分割的视觉任务相结合。

104

Asymmetric Shapley values: incorporating causal knowledge into model-agnostic explainability

们引入了一个限制性较小的框架,即非对称Shapley值(ASV),它严格地建立在适用于任何AI统的一组公理基础上,并且可以灵活地合并已知受数据尊重的任何因果结构。

105

Understanding Deep Architecture with Reasoning Layer

在本文中,我们通过显示算法层的属性(例如收敛性,稳定性和敏感性)与端到端的逼近和泛化能力密切相关,从而迈出了对此类混合深度架构的理解的第一步。模型。

106

Planning in Markov Decision Processes with Gap-Dependent Sample Complexity

们提出了MDP-GapE这是一种新的基于轨迹的蒙特卡洛树搜索算法,用于在马尔可夫决策过程中进行规划,其中对过渡具有有限的支持。

107

Provably Good Batch Off-Policy Reinforcement Learning Without Great Exploration

们表明,在不考虑集中性假设的情况下,在Bellman优性的低数据区域中使用¥emph {观价值估计}评估备份可以产生更多的适应性和更强的保证。

108

Detection as Regression: Certified Object Detection with Median Smoothing

这项工作是受最近通过随机平滑进行认证分类的进展所推动的。我们首先提出从对象检测到回归问题的减少。

109

Contextual Reserve Price Optimization in Auctions via Mixed Integer Programming

们研究了在给定上下文信息的情况下学习线性模型以设置拍卖中的底价的问题,以便最大程度地提高卖方的预期收入。

110

ExpandNets: Linear Over-parameterization to Train Compact Convolutional Networks

们介绍一种训练给定紧凑网络的方法。

111

FleXOR: Trainable Fractional Quantization

在本文中,我们提出了一种加密算法/体系结构来压缩量化的权重,以实现每权重的分数位数。

112

The Implications of Local Correlation on Learning Some Deep Functions

们介绍了一种分布的属性,称为局部相关性,它要求输入图像的小块和目标函数的中间层与目标标签相关。

113

Learning to search efficiently for causally near-optimal treatments

们将这个问题形式化为学习使用因果推理框架在最少数量的试验中寻找接近最佳治疗的策略。

114

A Game Theoretic Analysis of Additive Adversarial Attacks and Defenses

在本文中,我们提出了一个博弈论框架来研究均衡存在的攻击和防御。

115

Posterior Network: Uncertainty Estimation without OOD Samples via Density-Based Pseudo-Counts

这项工作中,我们提出了后验网络(PostNet),该网络使用规范化流来预测任何输入样本在预测概率上的单个封闭式后验分布。

116

Recurrent Quantum Neural Networks

这项工作中,我们构建了第一个量子递归神经网络(QRNN),在非平凡任务(例如序列学习和整数位数分类)上具有可证明的性能。

117

No-Regret Learning and Mixed Nash Equilibria: They Do Not Mix

在本文中,我们研究了遵循正规化领导者(FTRL)的动力学,后者可能是研究最深入的无后悔动力学类别,并且我们建立了全面的否定结果,表明混合Nash均衡的概念与否定性相反。后悔学习。

118

A Unifying View of Optimism in Episodic Reinforcement Learning

在本文中,我们提供了一个在一般的强化学习问题中设计,分析和实现此类算法的通用框架。

119

Continuous Submodular Maximization: Beyond DR-Submodularity

在本文中,我们提出了第一个连续优化算法,该算法针对线性约束下的单调连续亚模最大化问题,实现了恒定因子近似保证。

120

An Asymptotically Optimal Primal-Dual Incremental Algorithm for Contextual Linear Bandits

在本文中,我们遵循了从与问题相关的后悔下限派生渐近最优算法的最新方法,并介绍了一种改进的,沿多个维度进行改进的新颖算法。

121

Assessing SATNet's Ability to Solve the Symbol Grounding Problem

在本文中,我们通过显示在没有中间标签来识别各个Sudoku数字图像及其逻辑表示的中间标签的情况下,澄清了SATNet的功能,SATNet视觉Sudoku上完全失败(测试精度为0%)。

122

A Bayesian Nonparametrics View into Deep Representations

们从概率的角度研究神经网络表示。

123

On the Similarity between the Laplace and Neural Tangent Kernels

这里,我们显示具有ReLU激活的完全连接网络的NTK标准Laplace内核密切相关。

124

A causal view of compositional zero-shot recognition

这里,我们描述了一种基于因果思想的合成概括方法。

125

HiPPO: Recurrent Memory with Optimal Polynomial Projections

们介绍了一种通用框架(HiPPO),用于通过投影到多项式基上来对连续信号和离散时间序列进行在线压缩。

126

Auto Learning Attention

在本文中,我们设计了一种自动学习注意(AutoLA)方法,这是对自动注意设计的首次尝试。

127

CASTLE: Regularization via Auxiliary Causal Graph Discovery

们介绍了因果结构学习(CASTLE)正则化,并建议通过共同学习变量之间的因果关系来对神经网络进行正则化。

128

Long-Tailed Classification by Keeping the Good and Removing the Bad Momentum Causal Effect

在本文中,我们建立了因果推理框架,该框架不仅揭示了先前方法的原因,而且还推导了新的有原则的解决方案。

129

Explainable Voting

但是,我们证明,重要的Borda规则的结果可以使用Om ^ 2)步骤来解释,其中m是替代数。

130

Deep Archimedean Copulas

在本文中,我们介绍ACNet这是一种新颖的可微神经网络体系结构,可增强结构特性并使人们能够学习一类重要的系动词-Archimedean Copulas

131

Re-Examining Linear Embeddings for High-Dimensional Bayesian Optimization

在本文中,我们确定了有关在BO中使用线性嵌入的几个关键问题和误解。

132

UnModNet: Learning to Unwrap a Modulo Image for High Dynamic Range Imaging

在本文中,我们将模图像解包问题重新构造为一系列二进制标记问题,并提出了一种模态边缘感知模型(称为UnModNet),以迭代方式估计模图像的二进制翻转掩码以进行解包。

133

Thunder: a Fast Coordinate Selection Solver for Sparse Learning

在本文中,我们提出了一种新颖的主动增量方法来进一步提高求解器的效率。

134

Neural Networks Fail to Learn Periodic Functions and How to Fix It

为解决此问题的方法,我们提出了一个新的激活,即$ x +¥sin ^ 2x$,它可以实现所需的周期性感应偏差以学习周期函数,同时保持$¥relu的最佳优化特性。基于$的激活。

135

Distribution Matching for Crowd Counting

在本文中,我们表明将高斯方法强加于注释会损害泛化性能。

136

Correspondence learning via linearly-invariant embedding

在本文中,我们提出了一个完全可微的流水线,用于估计3D点云之间的精确密集对应关系。

137

Learning to Dispatch for Job Shop Scheduling via Deep Reinforcement Learning

在本文中,我们建议通过端到端的深度强化学习代理自动学习PDR

138

On Adaptive Attacks to Adversarial Example Defenses

尽管先前的评估论文主要侧重于最终结果(表明防御无效),但本文着重于提出实施自适应攻击所必需的方法和方法。

139

Sinkhorn Natural Gradient for Generative Models

这方面,我们提出了一种新颖的Sinkhorn自然梯度(SiNG)算法,该算法可作为Sinkhorn散度赋予的概率空间的最速下降方法。

140

Online Sinkhorn: Optimal Transport distances from sample streams

本文介绍了一种新的在线估计器,用于估计两个这样的任意分布之间的熵正则化OT距离。

141

Ultrahyperbolic Representation Learning

在本文中,我们提出了一个存在于恒定非零曲率的伪黎曼流形上的表示。

142

Locally-Adaptive Nonparametric Online Learning

们通过引入高效的在线算法(基于单个通用主算法)来填补这一空白,每种算法均符合以下规则之一:(i竞争者函数的局部Lipschitzness,(ii实例序列的局部度量维度,(iii 预测变量在实例空间不同区域的局部性能。

143

Compositional Generalization via Neural-Symbolic Stack Machines

为了解决这个问题,我们提出了神经符号堆叠机(NeSS)。

144

Graphon Neural Networks and the Transferability of Graph Neural Networks

在本文中,我们介绍了石墨烯NNGNN的极限对象,并证明了GNN输出与其极限石墨烯NN间的差异的界限。

145

Unreasonable Effectiveness of Greedy Algorithms in Multi-Armed Bandit with Many Arms

们研究了{¥em many-armed}贝叶斯多臂强盗问题中的后悔最小化政策的结构:特别是在$ k $的武器数量和$ T $时间范围的情况下,我们考虑了$ k¥geq¥sqrt {T} $

146

Gamma-Models: Generative Temporal Difference Learning for Infinite-Horizon Prediction

们介绍了伽马模型,这是一种具有无限概率范围的环境动力学的预测模型。

147

Deep Transformers with Latent Depth

们提出了一个概率框架,通过学习层选择的后验分布来自动学习要使用哪个层。

148

Neural Mesh Flow: 3D Manifold Mesh Generation via Diffeomorphic Flows

这项工作中,我们提出了NeuralMeshFlowNMF)来为属0形状生成两个流形网格。

149

Statistical control for spatio-temporal MEG/EEG source imaging with desparsified mutli-task Lasso

为了解决这个问题,我们将稀疏化的Lasso计器(为针对高维线性模型量身定制的估计器,在稀疏度和中等特征相关假设下渐进地遵循高斯分布)适应了因自相关噪声而损坏的时间数据。

150

A Scalable MIP-based Method for Learning Optimal Multivariate Decision Trees

在本文中,我们提出了一种基于1-范数支持向量机模型的新型MIP公式,用于训练针对分类问题的二进制斜式ODT

151

Efficient Exact Verification of Binarized Neural Networks

们提出了一种新的EEV统,用于高效准确地验证BNN

152

Ultra-Low Precision 4-bit Training of Deep Neural Networks

在本文中,我们提出了许多新颖的技术和数值表示形式,它们首次使训练系统的精度从8积极地扩展到4位。

153

Bridging the Gap between Sample-based and One-shot Neural Architecture Search with BONAS

这项工作中,我们提出了BONAS贝叶斯优化神经体系结构搜索),这是一个基于样本的NAS框架,它使用权重共享来加速以同时评估多个相关体系结构。

154

On Numerosity of Deep Neural Networks

最近,发表了一个具有挑衅性的主张,即数字感觉自发地出现在仅针对视觉对象识别而训练的深度神经网络中。如果是真的,这对机器学习和认知科学领域都具有深远的意义。在本文中,我们证明上述说法是错误的。

155

Outlier Robust Mean Estimation with Subgaussian Rates via Stability

们在有界协方差假设下,更广泛地在有界低度矩假设下研究离群鲁棒高维均值估计的问题。

156

Self-Supervised Relationship Probing

这项工作中,我们引入了一种自我监督的方法,该方法隐式地学习了视觉关系,而无需依赖任何真实的视觉关系注释。

157

Information Theoretic Counterfactual Learning from Missing-Not-At-Random Feedback

为了规避RCT的使用,我们建立了一个信息理论反事实变体信息瓶颈(CVIB),作为无RCT的偏向学习的替代方法。

158

Prophet Attention: Predicting Attention with Future Attention

在本文中,我们提出了先知注意,类似于自我监督的形式。

159

Language Models are Few-Shot Learners

具体来说,我们训练GPT-3(一种具有1750亿个参数的自回归语言模型,比以前的任何非稀疏语言模型多10倍),并在很少的设置下测试其性能。

160

Margins are Insufficient for Explaining Gradient Boosting

这项工作中,我们首先证明了第k个裕度边界不足以解释最新的梯度增强器的性能。然后,我们解释第k边界的不足之处,并证明一个更强大,更细化的基于边界的泛化边界,确实可以成功地解释现代梯度增强器的性能。

161

Fourier-transform-based attribution priors improve the interpretability and stability of deep learning models for genomics

为了解决这些缺点,我们提出了一种新颖的归因算法,其中在训练时计算输入级归因得分的傅立叶变换,并对傅立叶频谱的高频分量进行惩罚。

162

MomentumRNN: Integrating Momentum into Recurrent Neural Networks

们从理论上证明并通过数值证明,MomentumRNN轻了训练RNN时消失的梯度问题。

163

Marginal Utility for Planning in Continuous or Large Discrete Action Spaces

在本文中,我们探索通过优化一种新颖的客观边际效用来明确学习候选动作生成器。

164

Projected Stein Variational Gradient Descent

这项工作中,我们提出了一种{投影斯坦因变量梯度下降}pSVGD)方法,通过利用由于此类问题的不适定性而利用数据知悉子空间的固有低维性的基本特性来克服这一挑战。

165

Minimax Lower Bounds for Transfer Learning with Linear and One-hidden Layer Neural Networks

在本文中,我们开发了一个统计极小极大框架,以线性和单层神经网络模型在回归的背景下表征迁移学习的基本限制。

166

SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks

们介绍SE3-Transformer,它是3D点云的自注意模块的变体,在连续3D转平移下它是等变的。

167

On the equivalence of molecular graph convolution and molecular wave function with poor basis set

这项研究中,我们证明了PaulingLennard-Jones1920年代引入的近似原子轨道线性组合(LCAO对应于分子的图卷积网络(GCN)。

168

The Power of Predictions in Online Control

们研究了在动态随机和对抗性干扰的影响下,在线线性二次调节器控制中预测的影响。

169

Learning Affordance Landscapes for Interaction Exploration in 3D Environments

们引入了一种增强型学习方法来进行交互探索,从而使具体体现的代理人能够自主发现新的未映射3D环境(例如,陌生的厨房)的负担能力情况。

170

Cooperative Multi-player Bandit Optimization

们设计了一种分布式学习算法,该算法可以克服玩家偏向最大化他们所获得的更多信息的玩家所获得的信息偏差的信息。

171

Tight First- and Second-Order Regret Bounds for Adversarial Linear Bandits

们提出了具有对抗性线性强盗一阶和二阶后悔界限的新颖算法。

172

Just Pick a Sign: Optimizing Deep Multitask Models with Gradient Sign Dropout

们提出了Gradient Sign DropoutGradDrop),一种概率掩蔽程序,该程序根据其一致性级别在激活层上对梯度进行采样。

173

A Loss Function for Generative Neural Networks Based on Watson?s Perceptual Model

们基于Watson的感知模型提出了这样的损失函数,该模型计算频率空间中的加权距离并说明亮度和对比度掩盖。

174

Dynamic Fusion of Eye Movement Data and Verbal Narrations in Knowledge-rich Domains

们建议共同分析专家的眼动和言语叙述,以发现重要且可解释的知识模式,以更好地了解他们的决策过程。

175

Scalable Multi-Agent Reinforcement Learning for Networked Systems with Average Reward

在本文中,我们识别出一类丰富的网络MARL问题,其中模型表现出局部依赖结构,可以以可扩展的方式对其进行求解。

176

Optimizing Neural Networks via Koopman Operator Theory

最近发现,考夫曼算子理论(Koopman算子理论)是发现非线性动力学系统基本动力学的有力框架,与神经网络训练密切相关。在这项工作中,我们采取了使用此连接的第一步。

177

SVGD as a kernelized Wasserstein gradient flow of the chi-squared divergence

们介绍了有关SVGD的新观点,而是将SVGD视为卡方散度的核化梯度流。

178

Adversarial Robustness of Supervised Sparse Coding

这项工作中,我们通过考虑一个模型来取得更好的平衡,该模型包括学习表示形式,同时给出精确的概括范围和鲁棒性证书。

179

Differentiable Meta-Learning of Bandit Policies

这项工作中,我们使用来自P样本学习未知分布P的此类策略。

180

Biologically Inspired Mechanisms for Adversarial Robustness

这项工作中,我们研究了两种生物学上合理的机制在对抗性鲁棒性中的作用。

181

Statistical-Query Lower Bounds via Functional Gradients

对于ReLU归的特定问题(等效地,不可知论地学习ReLU),我们证明了任何具有容差$ n ^ {- 1 /¥epsilon^ b} $统计查询算法都必须至少使用$ 2 ^ {n ^ c}¥epsilon $查询一些常数$ bc> 0 $,其中$ n $是尺寸,$¥epsilon $是精度参数。

182

Near-Optimal Reinforcement Learning with Self-Play

本文首次弥合了这一差距:我们提出了样本复杂度为¥tlOSAB)的Nash Q习算法的乐观变体,以及样本复杂度为¥tlOSA + B ))。

183

Network Diffusions via Neural Mean-Field Dynamics

们提出了一种基于神经平均场动力学的新颖学习框架,用于网络扩散的推理和估计问题。

184

Self-Distillation as Instance-Specific Label Smoothing

虑到这一点,我们为师生培训提供了一种新的解释,即摊销MAP计,从而使老师的预测能够实现针对特定实例的正则化。

185

Towards Problem-dependent Optimal Learning Rates

在本文中,我们提出了一个基于统一局部收敛原理的新框架。

186

Cross-lingual Retrieval for Iterative Self-Supervised Training

这项工作中,我们发现通过对使用自己的编码器输出提取的句子对训练seq2seq模型,可以进一步改善跨语言的对齐方式。

187

Rethinking pooling in graph neural networks

在本文中,我们以具有代表性的GNN为基础,并引入了变体,这些变体通过使用随机图或在补图上进行聚类来挑战需要保留位置的表示形式。

188

Pointer Graph Networks

这里,我们介绍了指针图形网络(PGN),该网络通过附加的推断边来增强集或图形,从而提高了模型的泛化能力。

189

Gradient Regularized V-Learning for Dynamic Treatment Regimes

在本文中,我们介绍了梯度正则化V习(GRV),这是一种估算DTR值函数的新方法。

190

Faster Wasserstein Distance Estimation with the Sinkhorn Divergence

这项工作中,我们建议使用Sinkhorn散度来估计它,该散度也是建立在熵正则化的基础上,但包含去偏项。

191

Forethought and Hindsight in Credit Assignment

们通过加强世界内部模型的规划来改进强化学习中的学分分配问题,并探索有关代理商如何最好地使用附加计算来传播新信息的方式的基本问题。

192

Robust Recursive Partitioning for Heterogeneous Treatment Effects with Uncertainty Quantification

本文开发了一种用于子组分析的新方法R2P,它可以解决所有这些弱点。

193

Rescuing neural spike train models from bad MLE

为了减轻这种情况,我们建议使用尖峰序列内核直接最小化神经记录和模型生成的尖峰序列之间的差异。

194

Lower Bounds and Optimal Algorithms for Personalized Federated Learning

这项工作中,我们考虑了HanzelyRichtarik2020)最近引入的个性化联合学习的优化公式,该公式被证明可以替代本地SGD方法的工作原理。

195

Black-Box Certification with Randomized Smoothing: A Functional Optimization Based Framework

统一的功能优化角度,我们提出了一种具有非高斯噪声和更一般攻击类型的对抗性认证的通用框架。

196

Deep Imitation Learning for Bimanual Robotic Manipulation

们提出了在连续状态动作空间中用于机器人双手操纵的深度模仿学习框架。

197

Stationary Activations for Uncertainty Calibration in Deep Learning

们引入了一个新的非线性神经网络激活函数家族,该函数模仿了由高斯过程(GP)模型中广泛使用的Mat¥'ern核家族引起的特性。

198

Ensemble Distillation for Robust Model Fusion in Federated Learning

这项工作中,我们研究了针对FL的更强大,更灵活的聚合方案。

199

Falcon: Fast Spectral Inference on Encrypted Data

在本文中,我们提出了一种快速的,频域深的神经网络,名为Falcon,用于对加密数据的快速推断。

200

On Power Laws in Deep Ensembles

这项工作中,我们专注于分类问题,并研究了深集合的未校准和已校准负对数似然(CNLL)的行为,作为集合大小和成员网络大小的函数。

201

Practical Quasi-Newton Methods for Training Deep Neural Networks

们考虑开发用于训练深度神经网络(DNN)的实际随机准牛顿方法,尤其是Kronecker分解对角线BFGSL-BFGS方法。

202

Approximation Based Variance Reduction for Reparameterization Gradients

这项工作中,我们提出了一个控制变量,该变量适用于任何具有已知均值和协方差的可重分配分布,例如具有任何协方差结构的高斯分布。

203

Inference Stage Optimization for Cross-scenario 3D Human Pose Estimation

这项工作中,我们提出了一个新颖的框架,即推理阶段优化(ISO),用于在源数据和目标数据来自不同的姿态分布时提高3D姿态模型的通用性。

204

Consistent feature selection for analytic deep neural networks

这项工作中,我们研究了解析深度网络的特征选择问题。

205

Glance and Focus: a Dynamic Approach to Reducing Spatial Redundancy in Image Classification

受并非图像中的所有区域都与任务相关的事实的启发,我们提出了一种新颖的框架,该框架通过处理一系列相对较小的输入来执行有效的图像分类,这些输入相对较小,这些输入是通过强化学习从原始图像中策略性地选择的。

206

Information Maximization for Few-Shot Learning

们引入了转导式信息最大化(TIM),以进行少量学习。

207

Inverse Reinforcement Learning from a Gradient-based Learner

在本文中,我们提出了一种针对该设置的新算法,该算法的目标是在学习过程中产生一系列策略的情况下,恢复由代理优化的奖励函数。

208

Bayesian Multi-type Mean Field Multi-agent Imitation Learning

在本文中,我们提出了贝叶斯多类型平均场多智能体模仿学习(BM3IL)。

209

Bayesian Robust Optimization for Imitation Learning

为了在这两个极端之间架起桥梁,我们提出了贝叶斯鲁棒优化模仿学习(BROIL)。

210

Multiview Neural Surface Reconstruction by Disentangling Geometry and Appearance

这项工作中,我们解决了多视图3D表面重建的难题。

211

Riemannian Continuous Normalizing Flows

为了克服这个问题,我们引入了黎曼连续归一化流,该模型通过将流定义为常微分方程的解,从而允许对光滑流形上的柔性概率测度进行参数化。

212

Attention-Gated Brain Propagation: How the brain can implement reward-based error backpropagation

们展示了具有任意数量层的深层网络的生物学上可行的强化学习方案。

213

Asymptotic Guarantees for Generative Modeling Based on the Smooth Wasserstein Distance

这项工作中,我们对最小光滑Wasserstein计量(MSWE进行了彻底的统计研究,首先证明了估计量的可测性和渐近一致性。

214

Online Robust Regression via SGD on the l1 loss

相反,我们在这项工作中表明,在l1损失上的随机梯度下降以$¥tilde {O}1 /1-¥eta^ 2 n$的速率收敛到真实参数矢量,而速率与污染测量值。

215

PRANK: motion Prediction based on RANKing

在本文中,我们介绍了满足这些要求的PRANK方法。

216

Fighting Copycat Agents in Behavioral Cloning from Observation Histories

为了解决这个模仿问题,我们提出了一种对抗性方法来学习一种特征表示,该特征表示会删除有关先前专家操作令人讨厌的内容的过多信息,同时保留预测下一个操作所需的信息。

217

Tight Nonparametric Convergence Rates for Stochastic Gradient Descent under the Noiseless Linear Model

在此模型下,我们分析了最小风险下单步固定步长随机梯度下降的收敛性。

218

Structured Prediction for Conditional Meta-Learning

这项工作中,我们提出了通过结构化预测进行条件元学习的新视角。

219

Optimal Lottery Tickets via Subset Sum: Logarithmic Over-Parameterization is Sufficient

这项工作中,我们缩小了差距,并对存在彩票的过度参数化要求进行了指数改进。

220

The Hateful Memes Challenge: Detecting Hate Speech in Multimodal Memes

这项工作为多模式分类提出了一个新的挑战集,重点是在多模式模因中检测仇恨语音。

221

Stochasticity of Deterministic Gradient Descent: Large Learning Rate for Multiscale Objective Function

本文建议,不使用任何随机梯度逼近的确定性梯度下降仍然可以表现出随机行为。

222

Identifying Learning Rules From Neural Network Observables

关于需要进行哪些具体的实验测量以确定任何给定的学习规则在实际的生物系统中是否有效,这是一个悬而未决的问题。在这项工作中,我们对这个问题采取了拟实验的方法。

223

Optimal Approximation – Smoothness Tradeoffs for Soft-Max Functions

们的目标是为近似和平滑度的不同度量确定最佳近似平滑度折衷。

224

Weakly-Supervised Reinforcement Learning for Controllable Behavior

这项工作中,我们介绍了一个框架,该框架使用弱监督自动将任务的这个语义有意义的子空间与无意义的“ chaff”务的巨大空间自动区分开。

225

Improving Policy-Constrained Kidney Exchange via Pre-Screening

们提出了贪婪的启发式搜索和蒙特卡洛树搜索,它们优于以前的方法,使用了来自器官共享联合网络的合成数据和真实肾脏交换数据的实验。

226

Learning abstract structure for drawing by efficient motor program induction

们显示出人们自发地学习支持概括的抽象绘图程序,并提出了一个学习者如何发现这些可重用绘图程序的模型。

227

Why Do Deep Residual Networks Generalize Better than Deep Feedforward Networks? — A Neural Tangent Kernel Perspective

本文从所谓的经正切核的角度研究了深度学习中的这个基本问题。

228

Dual Instrumental Variable Regression

们提出了一种非线性工具变量(IV)回归的新颖算法DualIV该算法通过对偶公式简化了传统的两阶段方法。

229

Stochastic Gradient Descent in Correlated Settings: A Study on Gaussian Processes

在本文中,我们将重点放在高斯过程(GP)上,并通过证明小批量SGD敛到全损失函数的临界点,向突破障碍迈进了一步,并以速率$ O¥frac {1)恢复模型超参数。 } {K}$取决于小批量的大小,直至统计误差项。

230

Interventional Few-Shot Learning

亏了它,我们提出了一种新颖的FSL范式:介入式少量学习(IFSL)。

231

Minimax Value Interval for Off-Policy Evaluation and Policy Optimization

们研究使用价值函数和边际重要性权重进行政策评估(OPE)的minimax方法。

232

Biased Stochastic First-Order Methods for Conditional Stochastic Optimization and Applications in Meta Learning

对于这种特殊设置,我们提出了一种与下限复杂度匹配的加速算法,称为有偏的SpiderBoostBSpiderBoost)。

233

ShiftAddNet: A Hardware-Inspired Deep Network

本文介绍了ShiftAddNet,其主要灵感来自节能硬件实现中的常规做法,也就是说,可以通过加法和逻辑移位来执行乘法。

234

Network-to-Network Translation with Conditional Invertible Neural Networks

因此,我们寻求一种可以在不同的现有表示形式之间建立联系的模型,并提出使用条件可逆网络解决该任务。

235

Intra-Processing Methods for Debiasing Neural Networks

这项工作中,我们开始研究一种新的范式,以消除研究中的内部处理中的偏见,这种内部研究介于处理中和处理后方法之间。

236

Finding Second-Order Stationary Points Efficiently in Smooth Nonconvex Linearly Constrained Optimization Problems

本文提出了两种有效的算法,用于计算具有通用光滑非凸目标函数和通用线性约束的问题的近似二阶平稳点(SOSP)。

237

Model-based Policy Optimization with Unsupervised Model Adaptation

在本文中,我们研究了如何弥补由于模型估计不准确而导致的真实数据与模拟数据之间的差距,从而实现更好的策略优化。

238

Implicit Regularization and Convergence for Weight Normalization

这里,我们研究权重归一化(WN)方法¥cite {salimans2016weight}和一个称为重新参数化投影梯度下降法(rPGD)的变体,用于过度参数化的最小二乘回归和一些更一般的损失函数。

239

Geometric All-way Boolean Tensor Decomposition

这项工作中,我们提出了一种计算效率高的BTD算法,即用于所有阶张量因数分解(GETF)的几何扩展,该算法从几何角度顺序确定张量的等级1础分量。

240

Modular Meta-Learning with Shrinkage

这里,我们提出了一种元学习方法,该方法无需进行通常次优的手动选择。

241

A/B Testing in Dense Large-Scale Networks: Design and Inference

在本文中,我们提出了一种新颖的策略,可以准确地估算密集的大型网络中一类治疗的因果效应。

242

What Neural Networks Memorize and Why: Discovering the Long Tail via Influence Estimation

这项工作中,我们设计实验以测试该理论中的关键思想。

243

Partially View-aligned Clustering

在本文中,我们研究了多视图数据聚类中的一个具有挑战性的问题。

244

Partial Optimal Tranport with applications on Positive-Unlabeled Learning

在本文中,我们解决了部分Wasserstein问题和Gromov-Wasserstein问题,并提出了精确的算法来解决这些问题。

245

Toward the Fundamental Limits of Imitation Learning

在本文中,我们专注于理解情节马尔可夫决策过程(MDP)中IL的极大极小统计极限。

246

Logarithmic Pruning is All You Need

这项工作中,我们删除了先前工作的最大局限性假设,同时提供了更为严格的界限:过度参数化的网络只需要对数因子(除深度以外的所有变量)单位目标网络重量的神经元数。

247

Hold me tight! Influence of discriminative features on deep network boundaries

这项工作中,我们借鉴了对抗性鲁棒性领域的工具,并提出了将数据集特征与样本到决策边界的距离相关的新观点。

248

Learning from Mixtures of Private and Public Populations

受到以上示例的启发,我们考虑一个模型,其中人口$¥cD $是两个可能不同的子种群的混合:私有和敏感数据的私有子种群$¥Dprv $,以及公共子种群无需担心隐私的$¥Dpub $数据。

249

Adversarial Weight Perturbation Helps Robust Generalization

在本文中,我们从一个新的角度研究了减肥格局,并确定了减肥格局的平坦性与鲁棒的广义缺口之间的明确关联。

250

Stateful Posted Pricing with Vanishing Regret via Dynamic Deterministic Markov Decision Processes

在本文中,引入了一个相当普遍的在线问题,称为¥emph {带容量约束的动态资源分配(DRACC},并在发布价格机制的领域中进行了研究。

251

Adversarial Self-Supervised Contrastive Learning

在本文中,我们提出了一种针对未标记数据的新型对抗攻击,这使得该模型混淆了被干扰数据样本的实例级身份。

252

Normalizing Kalman Filters for Multivariate Time Series Analysis

在此程度上,我们提出了一种将经典状态空间模型与深度学习方法相协调的新颖方法。

253

Learning to summarize with human feedback

这项工作中,我们表明可以通过训练模型来优化人类偏好来显着提高摘要质量。

254

Fourier Spectrum Discrepancies in Deep Network Generated Images

在本文中,我们对真实和深层网络生成的图像的高频傅里叶模式进行了分析,并表明深层网络生成的图像在复制这些高频模式的属性方面存在可观察的系统缺陷。

255

Lamina-specific neuronal properties promote robust, stable signal propagation in feedforward networks

具体来说,我们发现,由输入驱动的尖峰信号上的神经元的每一层进行的信号变换,可以解调由前一层引入的信号失真。

256

Learning Dynamic Belief Graphs to Generalize on Text-Based Games

这项工作中,我们研究了代理商如何使用从原始文本端到端学习到的图形结构表示法来计划和推广基于文本的游戏。

257

Triple descent and the two kinds of overfitting: where & why do they appear?

在本文中,我们表明,尽管它们在表面上相似,但这两种情况本质上是不同的。

258

Multimodal Graph Networks for Compositional Generalization in Visual Question Answering

在本文中,我们建议通过使用神经因子图在不同模式(例如图像和文本)之间引发更紧密的耦合来应对这一挑战。

259

Learning Graph Structure With A Finite-State Automaton Layer

这项工作中,我们研究了学习从固有图结构派生抽象关系的问题。

260

A Universal Approximation Theorem of Deep Neural Networks for Expressing Probability Distributions

本文研究了用于表示概率分布的深层神经网络的通用逼近性质。

261

Unsupervised object-centric video generation and decomposition in 3D

相反,我们建议将视频建模为在具有多个3D对象和3D背景的场景中移动时看到的视图。

262

Domain Generalization for Medical Imaging Classification with Linear-Dependency Regularization

在本文中,我们介绍了一种简单有效的方法来提高深层神经网络在医学影像分类领域的泛化能力。

263

Multi-label classification: do Hamming loss and subset accuracy really conflict with each other?

本文试图通过分析SAHL测度上相应学习算法的学习保证来填补这一空白。

264

A Novel Automated Curriculum Strategy to Solve Hard Sokoban Planning Instances

们提出了一种新颖的{¥em}课程方法,该方法从{label难量子量子动量}策略指导的各种任务复杂性的无标签训练实例中动态选择。

265

Causal analysis of Covid-19 Spread in Germany

这项工作中,我们考虑到自大流行开始以来Covid-19扩散,研究了德国各地区之间的因果关系,同时考虑了不同联邦州实施的限制政策。

266

Locally private non-asymptotic testing of discrete distributions is faster using interactive mechanisms

们发现在阿尔法局部差分隐私的约束下,用于测试多项式或更一般的离散分布的分离率。

267

Adaptive Gradient Quantization for Data-Parallel SGD

们凭经验观察到,深层模型的梯度统计在训练过程中会发生变化。基于这种观察,我们引入了两种自适应量化方案:ALQAMQ

268

Finite Continuum-Armed Bandits

针对非参数设置,其中平均报酬是一维协变量的未知函数,我们针对此问题提出了一种最佳策略。

269

Removing Bias in Multi-modal Classifiers: Regularization by Maximizing Functional Entropies

为了缓解这一缺点,我们提出了一个基于函数熵的新颖的正则化项。

270

Compact task representations as a normative model for higher-order brain activity

更具体地说,我们关注状态基于动作观察历史的MDP,并展示如何压缩状态空间以消除不必要的冗余,同时保留与任务相关的信息。

271

Robust-Adaptive Control of Linear Systems: beyond Quadratic Costs

在必须避免故障的关键环境中,我们考虑具有未知参数的线性系统的鲁棒和自适应模型预测控制(MPC问题(自适应)。

272

Co-exposure Maximization in Online Social Networks

在本文中,我们研究了将种子用户分配给反对运动的问题:通过利用传统媒体上政治运动的等时规则,我们的目标是将种子用户分配给运动者,目的是最大化预期的用户数量谁同时参加了这两个广告系列。

273

UCLID-Net: Single View Reconstruction in Object Space

在本文中,我们表明,构建保留3维潜在空间的几何形状有助于网络同时学习对象坐标空间中的全局形状规则和局部推理,从而提高性能。

274

Reinforcement Learning for Control with Multiple Frequencies

在本文中,我们对RL中的多个控制频率问题进行形式化,并提供其有效的解决方法。

275

Complex Dynamics in Simple Neural Networks: Understanding Gradient Flow in Phase Retrieval

这里,我们专注于从随机测量中获取相位的梯度流动力学。

276

Neural Message Passing for Multi-Relational Ordered and Recursive Hypergraphs

这项工作中,我们首先将不同结构上的现有MPNN统一到G-MPNN(通用MPNN)框架中。

277

A Unified View of Label Shift Estimation

在本文中,我们给出了这两种方法的统一视图以及MLLS的第一个理论特征。

278

Optimal Private Median Estimation under Minimal Distributional Assumptions

们研究了一项基本任务,即在纯差分隐私约束下,从有限数量的样本中估算基础分布的中位数。

279

Breaking the Communication-Privacy-Accuracy Trilemma

在本文中,我们开发了新颖的编码和解码机制,可以在各种规范设置下同时实现最佳的隐私和通信效率。

280

Audeo: Audio Generation for a Silent Performance Video

们在这项工作中的主要目的是探索这种转换的合理性,并确定能够将声音与视觉事件相关联的线索和组件。

281

Ode to an ODE

们提出了一种新的神经ODE算法范例,称ODEtoODE,其中主流的时间相关参数根据正交组Od)上的矩阵流而演化。

282

Self-Distillation Amplifies Regularization in Hilbert Space

这项工作提供了自我蒸馏的第一个理论分析。

283

Coupling-based Invertible Neural Networks Are Universal Diffeomorphism Approximators

如果没有通用性,则可能存在行为良好的可逆转换,而CF-INN远无法近似,因此将使模型类不可靠。我们通过显示一个方便的标准来回答这个问题:如果CF-INN层包含仿射耦合和特殊情况下的可逆线性函数,则它是通用的。

284

Community detection using fast low-cardinality semidefinite programming?

在本文中,我们提出了一种新的低基数算法,该算法泛化了局部更新以最大化从max-k-cut导出的半确定松弛。

285

Modeling Noisy Annotations for Crowd Counting

在本文中,我们首先使用具有高斯分布的随机变量对注释噪声建模,然后得出图像中每个空间位置的人群密度值的pdf。然后,我们用全协方差多元高斯密度来估计密度值的联合分布(即,密度图的分布),并得出易于实施的低秩近似。

286

An operator view of policy gradient methods

们将策略梯度方法转换为两个运算符的重复应用:一个策略改进运算符$¥mathcal {I} $,它将任何策略$¥pi $映射到一个更好的$¥mathcal {I}¥pi $,以及一个投影运算符$¥mathcal {P} $,它在可实现的策略集中找到$¥mathcal {I}¥pi $的最佳近似值。

287

Demystifying Contrastive Self-Supervised Learning: Invariances, Augmentations and Dataset Biases

某种程度上,最近的性能提升来自神秘的训练实例分类模型,该模型将每个图像及其增强版本作为单个类的样本来对待。在这项工作中,我们首先提出定量实验以揭露这些收益的神秘性。

288

Online MAP Inference of Determinantal Point Processes

在本文中,我们提供了一种有效的近似算法,用于在在线设置中为数据点以任意顺序到达的确定点过程(DPP)找到大小$ k $的最大似然配置(MAP)。从其本地内存中选择元素。

289

Video Object Segmentation with Adaptive Feature Bank and Uncertain-Region Refinement

本文提出了一种新的基于匹配的半监督视频对象分割(VOS)框架。

290

Inferring learning rules from animal decision-making

强化学习通常侧重于使人工代理有效地学习新任务的算法设计,而在这里,我们开发了一个建模框架来直接推断动物用来获取新行为的经验学习规则。

291

Input-Aware Dynamic Backdoor Attack

这项工作中,我们提出了一种新颖的后门攻击技术,其中触发因输入而异。

292

How hard is to distinguish graphs with graph neural networks?

这项研究得出了消息传递模型(MPNN)中图形同构的分类变量的硬度结果。

293

Minimax Regret of Switching-Constrained Online Convex Optimization: No Phase Transition

在本文中,我们表明,少于$ K $$ T $舍入切换的OCO具有$¥Theta¥frac {T} {¥sqrt {K}}$的极小极大遗憾。

294

Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp Adversarial Attacks

为了部分回答这个问题,我们考虑了基础数据的多种信息可用的情况。

295

Cross-Scale Internal Graph Neural Network for Image Super-Resolution

在本文中,我们探索了自然图像的跨尺度斑块递归特性,即相似的斑块往往在不同尺度上重复多次。

296

Unsupervised Representation Learning by Invariance Propagation

在本文中,我们提出不变性传播,专注于学习类别级别变异的不变表示,该表示由同一类别的不同实例提供。

297

Restoring Negative Information in Few-Shot Object Detection

在本文中,我们通过引入一个新的基于负代表和正代表的度量学习框架以及一个具有负代表和正代表的新推理方案,来恢复少发物体检测中的负信息。

298

Do Adversarially Robust ImageNet Models Transfer Better?

这项工作中,我们确定了另一个方面:我们发现对抗性强健的模型虽然准确性较低,但在用于迁移学习时通常比其标准训练的模型表现更好。

299

Robust Correction of Sampling Bias using Cumulative Distribution Functions

们通过对VapnikIzmailov提出的最新想法进行严格归纳,提出了一种使用目标分布的经验累积分布函数估计值处理协变量偏移的新方法。

300

Personalized Federated Learning with Theoretical Guarantees: A Model-Agnostic Meta-Learning Approach

在本文中,我们研究了联合学习的个性化变体,其中我们的目标是找到一个初始共享模型,该模型可以通过对当前用户或新用户执行一个或几个梯度下降步骤来轻松地适应其本地数据集。自己的数据。

301

Pixel-Level Cycle Association: A New Perspective for Domain Adaptive Semantic Segmentation

在本文中,我们建议在源像素对和目标像素对之间建立像素级循环关联,并以对比方式增强它们的连接以减小域间隙并使特征更具区分性。

302

Classification with Valid and Adaptive Coverage

在本文中,我们针对分类和无序响应标签开发了这些技术的专门版本,这些标签除了提供边际覆盖率之外,还完全适应复杂的数据分布,从某种意义上说,与条件条件覆盖率相比,它们具有良好的性能。替代方法。

303

Learning Global Transparent Models consistent with Local Contrastive Explanations

这项工作中,我们探索一个问题:我们能否产生一个透明的全局模型,该模型同时准确且与黑匣子模型的本地(对比)说明一致?

304

Learning to Approximate a Bregman Divergence

在本文中,我们着重于从监督中近似任意Bregman散度的问题,并且我们提供了一种很好的原则来分析这种近似。

305

Diverse Image Captioning with Context-Object Split Latent Spaces

为此,我们引入了一种潜在空间的新颖分解,称为上下文对象拆分,以对数据集中图像和文本之间的上下文描述中的多样性进行建模。

306

Learning Disentangled Representations of Videos with Missing Data

们介绍了Disentangled估算视频自动编码器(DIVE),这是一种深度生成模型,可以在缺少数据的情况下估算和预测未来的视频帧。

307

Natural Graph Networks

这里,我们表明,代替等方差,更一般的自然性概念足以使图网络得到明确定义,从而打开了一类更大的图网络。

308

Continual Learning with Node-Importance based Adaptive Group Sparse Regularization

们提出了一种新颖的基于正则化的连续学习方法,称为基于自适应组稀疏性的持续学习(AGS-CL,它使用了两个基于组稀疏性的惩罚。

309

Towards Crowdsourced Training of Large Neural Networks using Decentralized Mixture-of-Experts

这项工作中,我们提出了Learning @ home:一种新颖的神经网络训练范例,旨在处理大量连接不良的参与者。

310

Bidirectional Convolutional Poisson Gamma Dynamical Systems

将自然文档句词结构纳入分级贝叶斯建模中,我们提出了卷积泊松伽马动力系统(PGDS),该系统不仅引入了词级概率卷积,还引入了句子级随机时态过渡。

311

Deep Reinforcement and InfoMax Learning

为了检验该假设,我们引入了一个基于Deep InfoMaxDIM)的目标,该目标通过最大化代理在连续时间步长的内部表示之间的相互信息来训练代理预测未来。

312

On ranking via sorting by estimated expected utility

们以等级损失的结构化特征的形式提供了对此问题的答案,对于该损失,适当的回归是一致的。

313

Distribution-free binary classification: prediction sets, confidence intervals and calibration

对于无分布设置中的二进制分类,我们研究了不确定性量化的三个概念-校准,置信区间和预测集-即无需对数据进行任何分布假设。

314

Closing the Dequantization Gap: PixelCNN as a Single-Layer Flow

在本文中,我们介绍了子集流,这是一类流,可以灵活地转换有限体积,因此可以精确计算离散数据的可能性。

315

Sequence to Multi-Sequence Learning via Conditional Chain Mapping for Mixture Signals

这项工作中,我们着重于一对多序列转导问题,例如从混合序列中提取多个序列源。

316

Variance reduction for Random Coordinate Descent-Langevin Monte Carlo

们通过一个反例表明,在最一般的情况下盲目应用RCD并不能达到目标。

317

Language as a Cognitive Tool to Imagine Goals in Curiosity Driven Exploration

们介绍了IMAGINE这是一种内在动机的深度强化学习体系结构,可以对这种能力进行建模。

318

All Word Embeddings from One Embedding

这项研究中,为了减少参数的总数,通过转换共享嵌入来表示所有单词的嵌入。

319

Primal Dual Interpretation of the Proximal Stochastic Gradient Langevin Algorithm

们考虑关于对数凹概率分布的采样任务。

320

How to Characterize The Landscape of Overparameterized Convolutional Neural Networks

具体来说,我们考虑连续极限中超参数化卷积神经网络(CNN)的损耗情况,其中隐藏层中的通道/隐藏节点数达到无穷大。

321

On the Tightness of Semidefinite Relaxations for Certifying Robustness to Adversarial Examples

在本文中,我们描述了一种几何技术,该技术确定此SDP证书是否准确,这意味着它既提供最小对抗性扰动大小的下限,又提供达到该下限的全局最优扰动。

322

Submodular Meta-Learning

在本文中,我们介绍了元学习框架的离散形式。

323

Rethinking Pre-training and Self-training

们的研究通过以下三点发现揭示了自我训练的一般性和灵活性:1)更强大的数据增强功能和更多标记数据进一步降低了预训练的价值; 2)与预训练不同,使用更强大的自我训练总是有帮助的在低数据和高数据两种情况下的数据增强,以及3)在预训练有帮助的情况下,自训练会在预训练后得到改善。

324

Unsupervised Sound Separation Using Mixture Invariant Training

在本文中,我们提出了一种完全无监督的方法,即混合不变训练(MixIT),该方法仅需要单通道声学混合。

325

Adaptive Discretization for Model-Based Reinforcement Learning

们介绍了自适应离散化技术,以在大型(可能是连续的)状态动作空间中设计一种有效的基于模型的情节强化学习算法。

326

CodeCMR: Cross-Modal Retrieval For Function-Level Binary Source Code Matching

本文提出了一种用于二进制源代码匹配的端到端跨模式检索网络,该网络可以实现更高的准确性,并且需要较少的专家经验。

327

On Warm-Starting Neural Network Training

这项工作中,我们仔细研究了这种经验现象,并试图了解它何时以及如何发生。

328

DAGs with No Fears: A Closer Look at Continuous Optimization for Learning Bayesian Networks

根据KKT条件,提出了一种本地搜索后处理算法,并表明该算法可以实质上普遍地提高所有测试算法的结构汉明距离,通常提高2倍或更多。

329

OOD-MAML: Meta-Learning for Few-Shot Out-of-Distribution Detection and Classification

们提出了一种简单的学习方法,用于从训练过程中看不到的类别中检测出分布失调(OOD样本,同时仅使用一些标记的示例对可见类别中的样本进行分类。

330

An Imitation from Observation Approach to Transfer Learning with Dynamics Mismatch

在本文中,我们证明了这种转移问题的一种现有解决方案-扎根的动作转换-观察观察的模仿问题(IfO)密切相关:学习模仿行为演示观察结果的行为。

331

Learning About Objects by Learning to Interact with Them

从通过玩耍和互动从周围环境中学习的婴儿中汲取灵感,我们提出了一种计算框架,以沿着这种从互动中学习的范式发现对象并学习其物理特性。

332

Learning discrete distributions with infinite support

们提出了一种新颖的方法来估计总变化量度中具有(潜在)无限支持的离散分布。

333

Dissecting Neural ODEs

这项工作中,我们打开了盒子进一步发展了连续深度的公式化,目的是弄清几种设计选择对基本动力的影响。

334

Teaching a GAN What Not to Learn

在本文中,我们从另一角度研究了监督的GAN问题,这是由著名的波斯诗人Rumi的哲学所驱动的,他说:知道的艺术就是知道要忽略什么。

335

Counterfactual Data Augmentation using Locally Factored Dynamics

们提出了一种基于给定的面向对象状态表示来推断这些结构的方法,以及一种用于反事实数据增强(CoDA)的新颖算法。

336

Rethinking Learnable Tree Filter for Generic Feature Transform

为了放松几何约束,我们通过将其重新构造为马氏随机场来进行分析,并引入一个可学习的一元项。

337

Self-Supervised Relational Reasoning for Representation Learning

这项工作中,我们提出了一种新的自我监督的关系推理方法,使学习者可以从未标记数据中隐含的信息中引导信号。

338

Sufficient dimension reduction for classification using principal optimal transport direction

为了解决这个问题,我们提出了一种使用最优传输的充分降维子空间(SDR子空间)的新颖估计方法。

339

Fast Epigraphical Projection-based Incremental Algorithms for Wasserstein Distributionally Robust Support Vector Machine

在本文中,我们重点关注Wasserstein分布鲁棒支持向量机(DRSVM问题,并提出了两种新的基于射影投影的增量算法来解决这些问题。

340

Differentially Private Clustering: Tight Approximation Ratios

对于一些基本的聚类问题,包括欧几里得DensestBall1-Clusterk-meansk-median,我们给出了有效的差分私有算法,该算法可实现与任何非私有算法可获得的近似比率,而仅引起很小的附加误差。

341

On the Power of Louvain in the Stochastic Block Model

们提供了用于分析Louvain的有价值的工具,还提供了许多其他组合算法的工具。

342

Fairness with Overlapping Groups; a Probabilistic Perspective

在算法上公平的预测问题中,一个标准目标是确保多个重叠组之间的公平性指标同时相等。我们使用概率总体分析重新考虑这个标准的公平分类问题,从而揭示贝叶斯最优分类器。

343

AttendLight: Universal Attention-Based Reinforcement Learning Model for Traffic Signal Control

们提出AttendLight,一种用于交通信号控制问题的端到端强化学习(RL)算法。

344

Searching for Low-Bit Weights in Quantized Neural Networks

因此,我们提出将任意量化神经网络中的离散权重视为可搜索变量,并利用差分方法对其进行精确搜索。

345

Adaptive Reduced Rank Regression

为了补充上限,我们引入了新技术来为该问题的任何算法的性能建立下限。

346

From Predictions to Decisions: Using Lookahead Regularization

为此,我们引入了前瞻性正则化,它通过预期用户操作来鼓励预测模型也诱导出可以改善结果的操作。

347

Sequential Bayesian Experimental Design with Variable Cost Structure

们提出并演示了一种在优化决策中考虑这些可变成本的算法。

348

Predictive inference is free with the jackknife+-after-bootstrap

在本文中,我们提出了折刀+后引导程序J + aB),这是一种构建预测间隔的程序,该程序仅使用可用的自举示例及其相应的拟合模型,因此在成本方面模型拟合。

349

Counterfactual Predictions under Runtime Confounding

们提出了一种在这种情况下学习反事实预测模型的双稳健程序。

350

Learning Loss for Test-Time Augmentation

本文提出了一种新颖的实例级测试时间扩充,可以有效地为测试输入选择合适的转换。

351

Balanced Meta-Softmax for Long-Tailed Visual Recognition

在本文中,我们证明了Softmax函数尽管在大多数分类任务中使用,但在长尾设置下给出了有偏差的梯度估计。

352

Efficient Exploration of Reward Functions in Inverse Reinforcement Learning via Bayesian Optimization

本文提出了一个称为贝叶斯优化-IRLBO-IRL)的IRL框架,该框架通过有效地探索奖励函数空间来确定与专家论证相一致的多个解决方案。

353

MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning

本文介绍了用于深度强化学习的MDP态网络。

354

How Can I Explain This to You? An Empirical Study of Deep Neural Network Explanation Methods

们进行了一项交叉分析Amazon Mechanical Turk研究,比较了流行的最新技术解释方法,以凭经验确定哪种方法更能解释模型决策。

355

On the Error Resistance of Hinge-Loss Minimization

这项工作中,我们在数据上确定了一组条件,在这些条件下,此类替代损失最小化算法可证明学习正确的分类器。

356

Munchausen Reinforcement Learning

们的核心贡献在于一个非常简单的想法:将扩展的日志策略添加到即时奖励中。

357

Object Goal Navigation using Goal-Oriented Semantic Exploration

们提出了一个名为面向目标的语义探索的模块化系统,该系统可构建情节性语义图,并根据目标对象类别使用它来有效地探索环境。

358

Efficient semidefinite-programming-based inference for binary and multi-class MRFs

在本文中,我们提出了一种有效的方法来计算成对MRF中的分区函数或MAP计,方法是利用最近提出的基于坐标下降的快速半定值求解器。

359

Funnel-Transformer: Filtering out Sequential Redundancy for Efficient Language Processing

基于这种直觉,我们提出了一种漏斗变换程序,该程序逐渐将隐藏状态序列压缩为较短的状态,从而降低了计算成本。

360

Semantic Visual Navigation by Watching YouTube Videos

本文通过简单地观看YouTube视频,学习并利用了这种语义线索,以在新颖的环境中导航至感兴趣的对象。

361

Heavy-tailed Representations, Text Polarity Classification & Data Augmentation

在本文中,我们开发了一种新颖的方法来学习关于分布尾部具有理想规则性的重尾嵌入,该方法允许使用多元极值理论的框架来分析远离分布体的点。

362

SuperLoss: A Generic Loss for Robust Curriculum Learning

相反,我们提出了一种简单而通用的方法,该方法可以应用于各种损失和任务,而无需改变学习过程。

363

CogMol: Target-Specific and Selective Drug Design for COVID-19 Using Deep Generative Models

这项研究中,我们提出了一个名为CogMol(分子的受控代)的端到端框架,用于设计以高亲和力和脱靶选择性靶向新型病毒蛋白的新型药物样小分子。

364

Memory Based Trajectory-conditioned Policies for Learning from Sparse Rewards

这项工作中,我们建议不要学习专注于有限多样性的良好体验,而应该学习一种基于轨迹的策略,以遵循并扩展内存缓冲区中过去的各种轨迹。

365

Liberty or Depth: Deep Bayesian Neural Nets Do Not Need Complex Weight Posterior Approximations

们质疑长期以来的假设,即贝叶斯神经网络中用于变化推断的均值场近似具有严格的限制性,并表明在深度网络中并非如此。

366

Improving Sample Complexity Bounds for (Natural) Actor-Critic Algorithms

相比之下,本文描述了在马尔可夫抽样下ACNAC的收敛速度和样本复杂度,其中每次迭代具有小批量数据,并且参与者具有通用策略类近似。

367

Learning Differential Equations that are Easy to Solve

们建议一种补救措施,以鼓励更轻松地解决所学动态。

368

Stability of Stochastic Gradient Descent on Nonsmooth Convex Losses

具体来说,我们为任意形式的Lipschitz非光滑凸损失提供了几种形式的SGD和全批次GD的清晰上下限。

369

Influence-Augmented Online Planning for Complex Environments

这项工作中,我们提出了影响力增强的在线计划,这是将整个环境的分解模拟器转换为本地模拟器的一种原理方法,该本地模拟器仅对与计划代理的观察和奖励最相关的状态变量进行采样并捕获使用机器学习方法从其他环境中传入的影响。

370

PAC-Bayes Learning Bounds for Sample-Dependent Priors

们为样本依赖先验的随机算法提供了一系列新的PAC-Bayes习保证。

371

Reward-rational (implicit) choice: A unifying formalism for reward learning

们的主要观察结果是,可以在一个统一的形式主义中解释不同类型的行为,这是人类做出的一种奖励理性选择,通常是隐含的。

372

Probabilistic Time Series Forecasting with Shape and Temporal Diversity

在本文中,我们针对非平稳时间序列解决此问题,这是非常具有挑战性但至关重要的。

373

Low Distortion Block-Resampling with Spatially Stochastic Networks

们形式化并解决了从尽可能多的旧图像生成新图像的问题,只允许它们在图像的某些部分不受限制地进行更改,同时保持全局一致。

374

Continual Deep Learning by Functional Regularisation of Memorable Past

在本文中,我们通过使用一种新的功能正则化方法来解决此问题,该方法利用了一些令人难忘的重要示例来避免遗忘。

375

Distance Encoding: Design Provably More Powerful Neural Networks for Graph Representation Learning

这里,我们提出并用数学方法分析了与结构相关的特征的通用类,称为距离编码(DE)。

376

Fast Fourier Convolution

这项工作中,我们提出了一种被称为快速傅里叶卷积(FFC)的新颖卷积算子,它具有非局部接收场和卷积单元内跨尺度融合的主要特征。

377

Unsupervised Learning of Dense Visual Representations

在本文中,我们提出了与视图无关的密集表示(VADeR),用于无监督学习密集表示。

378

Higher-Order Certification For Randomized Smoothing

这项工作中,我们提出了一个框架,可在不更改基础平滑方案的情况下改善这些平滑分类器的认证安全区域。

379

Learning Structured Distributions From Untrusted Batches: Faster and Simpler

在本文中,我们找到了一种吸引人的方法来综合[JO19][CLM19]的技术,以充分利用两个方面的优势:一种在多项式时间内运行并且可以利用基础分布中的结构实现亚线性样本复杂度的算法。

380

Hierarchical Quantized Autoencoders

这使我们引入了一个新的目标,用于训练分层VQ-VAE

381

Diversity can be Transferred: Output Diversification for White- and Black-box Attacks

为了提高这些攻击的效率,我们提出了输出多样化采样(ODS),这是一种新颖的采样策略,旨在使目标模型的输出在生成的样本之间的多样性最大化。

382

POLY-HOOT: Monte-Carlo Planning in Continuous Space MDPs with Non-Asymptotic Analysis

在本文中,我们考虑了具有连续状态动作空间的环境中的蒙特卡洛规划,这在控制和机器人技术中的重要应用中鲜为人知。

383

AvE: Assistance via Empowerment

们通过提高人类控制环境的能力提出了一种新的援助范式,并通过赋予人类权力来增强强化学习,从而使这种方法正式化。

384

Variational Policy Gradient Method for Reinforcement Learning with General Utilities

在本文中,我们考虑了马尔可夫决策问题中的策略优化,其中目标是状态行为占用度量的通用效用函数,该函数将上述几个示例归为特例。

385

Reverse-engineering recurrent neural network solutions to a hierarchical inference task for mice

们研究递归神经网络(RNN)如何解决涉及两个潜在变量和以1-2个数量级分开的不同时间尺度的层次推理任务。

386

Temporal Positive-unlabeled Learning for Biomedical Hypothesis Generation via Risk Estimation

们提出了一种变分推理模型来估计正先验,并将其结合到节点对嵌入的学习中,然后将其用于链路预测。

387

Efficient Low Rank Gaussian Variational Inference for Neural Networks

过使用新形式的重新参数化技巧,我们得出了一种计算效率高的算法,该算法可通过具有低秩加对角协方差结构的高斯族执行VI

388

Privacy Amplification via Random Check-Ins

在本文中,我们着重于在联邦学习(FL)的设置中进行类似DP-SGD的迭代方法,其中数据分布在许多设备(客户端)之间。

389

Probabilistic Circuits for Variational Inference in Discrete Graphical Models

在本文中,我们提出了一种新的方法,该方法利用概率电路模型(例如Sum Product NetworksSPN))的可处理性,为特定密度的类别准确(无需采样)计算ELBO梯度。

390

Your Classifier can Secretly Suffice Multi-Source Domain Adaptation

这项工作中,我们提出了与MSDA不同的观点,其中观察到了深度模型以在标签监督下隐式对齐域。

391

Labelling unlabelled videos from scratch with multi-modal self-supervision

这项工作中,我们(a)展示了视频数据集的无监督标记并非免费来自强特征编码器,并且(b)提出了一种新颖的聚类方法,该方法可以利用自然特征,对视频数据集进行伪标记而无需任何人工注释。视听方式之间的对应关系。

392

A Non-Asymptotic Analysis for Stein Variational Gradient Descent

在本文中,我们为SVGD算法提供了一种新颖的有限时间分析。

393

Robust Meta-learning for Mixed Linear Regression with Small Batches

们介绍了一种在两种情况下都同时具有鲁棒性的频谱方法。

394

Bayesian Deep Learning and a Probabilistic Perspective of Generalization

们表明,深层合奏为近似贝叶斯边缘化提供了一种有效的机制,并提出了一种相关方法,该方法通过在吸引盆地内边缘化来进一步改善预测分布,而没有明显的开销。

395

Unsupervised Learning of Object Landmarks via Self-Training Correspondence

本文解决了对象地标的无监督发现问题。

396

Randomized tests for high-dimensional regression: A more efficient and powerful solution

在本文中,我们通过利用随机投影技术来肯定地回答这个问题,并提出了一种将经典的$ F $ -test与随机投影步骤混合的测试程序。

397

Learning Representations from Audio-Visual Spatial Alignment

们介绍了一种新颖的自我监督的借口任务,用于从视听内容中学习表示形式。

398

Generative View Synthesis: From Single-view Semantics to Novel-view Images

们建议进一步发展,并引入生成视图综合(GVS),它可以在给定单个语义图的情况下合成场景的多个真实感视图。

399

Towards More Practical Adversarial Attacks on Graph Neural Networks

因此,我们提出了一种贪婪程序来校正考虑到收益递减模式的重要性得分。

400

Multi-Task Reinforcement Learning with Soft Modularization

因此,我们不是在所有任务之间天真地共享参数,而是引入了一种关于策略表示的显式模块化技术来缓解此优化问题。

401

Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual Predictions of Complex Models

在本文中,我们提出了一个计算Shapley值的新颖框架,该框架概括了旨在绕开独立性假设的最新工作。

402

On the training dynamics of deep networks with $L_2$ regularization

们研究了$ L_2 $则化在深度学习中的作用,并揭示了模型性能,$ L_2 $系数,学习率和训练步骤数之间的简单关系。

403

Improved Algorithms for Convex-Concave Minimax Optimization

本文研究了极小极大优化问题minx maxy fxy),其中fxy)相对于xmx凸,相对于ymy-强凹,(LxLxyLy-光滑。

404

Deep Variational Instance Segmentation

在本文中,我们提出了一种直接利用完全卷积网络(FCN)来预测实例标签的新颖算法。

405

Learning Implicit Functions for Topology-Varying Dense 3D Shape Correspondence

本文的目的是以一种无监督的方式学习拓扑变化对象的密集3D形状对应关系。

406

Deep Multimodal Fusion by Channel Exchanging

为此,本文提出了通道交换网络(CEN),这是一种无参数的多模态融合框架,可以在不同模态的子网之间动态交换通道。

407

Hierarchically Organized Latent Modules for Exploratory Search in Morphogenetic Systems

在本文中,我们激发了对所谓的元多样性搜索的需求,认为没有独特的地面真理有趣的多样性,因为它很大程度上取决于最终观察者及其动机。

408

AI Feynman 2.0: Pareto-optimal symbolic regression exploiting graph modularity

们提出了一种改进的符号回归方法,该方法旨在将数据拟合为帕累托最优的公式,就给定复杂度而言具有最佳准确性的意义而言。

409

Delay and Cooperation in Nonstochastic Linear Bandits

本文为具有延迟匪徒反馈的在线线性优化提供了一种几乎最佳的算法。

410

Probabilistic Orientation Estimation with Matrix Fisher Distributions

本文着重于使用深度神经网络估计3D转集(SO3))上的概率分布。

411

Minimax Dynamics of Optimally Balanced Spiking Networks of Excitatory and Inhibitory Neurons

总体而言,我们提出了一种新颖的规范EI络建模方法,超越了违反Dale定律的广泛使用的能量最小化网络。

412

Telescoping Density-Ratio Estimation

为了解决此限制,我们引入了一个新的框架,即伸缩密度比估计(TRE),它可以估计高维空间中高度不同密度之间的比率。

413

Towards Deeper Graph Neural Networks with Differentiable Group Normalization

为了弥合差距,我们引入了两个过度平滑的指标和一种新技术,即可区分组标准化(DGN)。

414

Stochastic Optimization for Performative Prediction

们开始进行用于性能预测的随机优化研究。

415

Learning Differentiable Programs with Admissible Neural Heuristics

们研究学习以领域特定语言表示为程序的可区分功能的问题。

416

Improved guarantees and a multiple-descent curve for Column Subset Selection and the Nystrom method

们开发了利用数据矩阵的光谱特性来获得改进的近似保证的技术,这些保证已超出标准的最坏情况分析范围。

417

Domain Adaptation as a Problem of Inference on Graphical Models

为了开发具有多个源域的自动域自适应方法,我们建议使用图形模型作为一种紧凑的方式来编码联合分布的变化属性,该属性可以从数据中学习,然后将域自适应视为一个问题。图形模型的贝叶斯推断。

418

Network size and size of the weights in memorization with two-layers neural networks

相比之下,我们基于{¥em complex}(而不是{¥em real})重组对神经元提出了一种针对ReLU络的新训练程序,为此,我们展示了$ O¥left¥frac { n} {d}¥cdot¥frac {¥log1 /¥epsilon} {¥epsilon}¥right$经元,以及权重的接近最佳大小。

419

Certifying Strategyproof Auction Networks

们提出了使用神经网络验证文献中的技术来明确验证特定估值配置文件下的策略可靠性的方法。

420

Continual Learning of Control Primitives : Skill Discovery via Reset-Games

这项工作中,我们将展示一种单一方法如何使座席能够在最少的监督下获得技能,同时又无需重置。

421

HOI Analysis: Integrating and Decomposing Human-Object Interaction

类似于谐波分析(旨在研究如何用基波叠加表示信号),我们提出了HOI分析。

422

Strongly local p-norm-cut algorithms for semi-supervised learning and local graph clustering

在本文中,我们提出了涉及p范数的这些方法背后的目标函数的一般化。

423

Deep Direct Likelihood Knockoffs

们开发了深度直接可能性仿制(DDLK),可直接将仿制掉期属性所隐含的KL差异最小化。

424

Meta-Neighborhoods

这项工作中,我们朝着这个方向前进,并提出了一种半参数方法,即Meta-Neighborhoods,其中对输入的邻域进行自适应预测。

425

Neural Dynamic Policies for End-to-End Sensorimotor Learning

这项工作中,我们开始弥合这一差距,并通过用微分方程对动作空间进行重新参数化,将动力学结构嵌入基于深度神经网络的策略中。

426

A new inference approach for training shallow and deep generalized linear models of noisy interacting neurons

这里,我们开发了一个两步推理策略,通过在每个训练步骤中从网络交互中明确地将刺激中相关性的影响分离出来,从而使我们能够训练交互神经元的鲁棒广义线性模型。

427

Decision-Making with Auto-Encoding Variational Bayes

基于这些理论结果,我们建议学习一些关于最佳模型的近似建议,并使用多重重要性抽样进行决策组合。

428

Attribution Preservation in Network Compression for Reliable Network Interpretation

在本文中,我们证明了这些看似无关的技术会相互冲突,因为网络压缩会使产生的属性变形,从而可能导致关键任务应用程序遭受严重后果。

429

Feature Importance Ranking for Deep Learning

在本文中,我们提出了一种由运算符和选择器组成的新颖双网体系结构,用于发现固定大小的最佳特征子集,并同时在最佳子集中对这些特征的重要性进行排序。

430

Causal Estimation with Functional Confounders

当真正的混杂因素值可以表示为观测数据的函数时,我们研究因果推理;我们称此设置为功能混杂因子(EFC)。

431

Model Inversion Networks for Model-Based Optimization

们建议使用模型反转网络(MIN)解决此类问题,该模型学习从得分到输入的逆映射。

432

Hausdorff Dimension, Heavy Tails, and Generalization in Neural Networks

为了弥合这一差距,在本文中,我们假设SGD轨迹可以通过¥emph {Feller process}很好地近似,从而证明了SGD的泛化界,¥emph {Feller process}义了丰富的Markov过程,其中包括最近的几种SDE表示形式(布朗氏或重尾)为特例。

433

Exact expressions for double descent and implicit regularization via surrogate random design

们为最小范数线性估计的两次下降提供了第一个确切的非渐近表达式。

434

Certifying Confidence via Randomized Smoothing

这项工作中,我们提出了一种为平滑分类器的预测置信度生成认证半径的方法。

435

Learning Physical Constraints with Neural Projections

们提出了一个新的神经网络家族,通过学习其基础约束来预测物理系统的行为。

436

Robust Optimization for Fairness with Noisy Protected Groups

首先,我们研究天真地依赖受噪声保护的组标签的后果:当满足噪声组^ G的公平性标准时,我们为真实组G的公平性违反提供了上限。

437

Noise-Contrastive Estimation for Multivariate Point Processes

们展示了如何代替使用噪声对比估计的一种方法,这种方法是一种具有较便宜的随机目标的通用参数估计方法。

438

A Game-Theoretic Analysis of the Empirical Revenue Maximization Algorithm with Endogenous Sampling

们概括了Lavi等人(2019)提出的激励意识度量的定义,以量化由于N输入样本中m> = 1变化而导致的ERM产出价格下降,并提供了该度量的特定收敛率当不同类型的输入分布的N变为无穷大时,该值变为零。

439

Neural Path Features and Neural Path Kernel : Understanding the role of gates in deep learning

在本文中,我们分析性地描述了门和主动子网在深度学习中的作用。

440

Multiscale Deep Equilibrium Models

们提出了一类新的隐式网络,即多尺度深度均衡模型(MDEQ),适用于大规模和高度分层的模式识别域。

441

Sparse Graphical Memory for Robust Planning

们引入了稀疏图形内存(SGM),这是一种在稀疏内存中存储状态和可行转换的新数据结构。

442

Second Order PAC-Bayesian Bounds for the Weighted Majority Vote

们提出了在多类分类中加权多数投票的预期风险的新颖分析。

443

Dirichlet Graph Variational Autoencoder

这项工作中,我们提出了以图簇隶属度为潜在因子的Dirichlet图变分自编码器(DGVAE)。

444

Modeling Task Effects on Meaning Representation in the Brain via Zero-Shot MEG Prediction

在当前的工作中,我们研究参与者的脑磁记录(MEG脑记录,这些记录负责回答有关具体名词的问题。

445

Counterfactual Vision-and-Language Navigation: Unravelling the Unseen

们提出了一种新的学习策略,可以从观察值和生成的反事实环境中学习。

446

Robust Quantization: One Model to Rule Them All

为了解决此问题,我们提出了一种针对各种量化过程为模型提供固有鲁棒性的方法。

447

Enabling certification of verification-agnostic networks via memory-efficient semidefinite programming

这项工作中,我们提出了一种一阶双重SDP算法,该算法提供(1)任意时间限制(2仅要求内存在网络激活总数中是线性的,并且(3)迭代复杂度与通过网络前进/后退的复杂性。

448

Federated Accelerated Stochastic Gradient Descent

们提出了联邦加速随机梯度下降(FedAc),联邦平均化的原理性加速(FedAvg,也称为本地SGD),以进行分布式优化。

449

Robust Density Estimation under Besov IPM Losses

们研究了在Huber污染模型下非参数密度估计的最小极大收敛速度,在该模型中,数据的污染部分来自未知的离群值分布。

450

An analytic theory of shallow networks dynamics for hinge loss classification

在本文中,我们详细研究了一种简单类型的神经网络的训练动力学:单个隐藏层经过训练以执行分类任务。

451

Fixed-Support Wasserstein Barycenters: Computational Hardness and Fast Algorithm

们研究固定支持的Wasserstein重心问题(FS-WBP),该问题包括计算在大小为$ n $的有限度量空间上支持的$ m $个离散概率测度的Wasserstein重心。

452

Learning to Orient Surfaces by Self-supervised Spherical CNNs

这项工作中,我们展示了为点云表示的表面学习鲁棒的规范方向的可行性。

453

Adam with Bandit Sampling for Deep Learning

在本文中,我们提出了一个亚当的概括,称为亚当斯(Adambs),它使我们也可以根据它们在模型收敛中的重要性来适应不同的训练示例。

454

Parabolic Approximation Line Search for DNNs

利用这种抛物线属性,我们引入了一种简单而强大的线搜索方法,该方法执行与损耗形状有关的更新步骤。

455

Agnostic Learning of a Single Neuron with Gradient Descent

们考虑了通过期望的平方损失$¥E _ {xy¥sim¥mathcal {D}} [¥sigmaw ^¥top x-y)来学习最适合的单个神经元的问题。 ^ 2] $过某些未知的联合分布$¥mathcal {D} $,方法是使用梯度下降来最小化一iid样本$ S¥sim¥mathcal {D} ^ n $引起的经验风险。

456

Statistical Efficiency of Thompson Sampling for Combinatorial Semi-Bandits

们建议通过分析组合汤普森抽样政策(CTS)的变体来回答这两个家庭的上述问题。

457

Analytic Characterization of the Hessian in Shallow ReLU Models: A Tale of Symmetry

们考虑与针对平方损失拟合两层ReLU络相关的优化问题,其中标签是由目标网络生成的。

458

Generative causal explanations of black-box classifiers

们开发了一种方法,用于基于学习到的数据的低维表示来生成黑箱分类器的因果事后解释。

459

Sub-sampling for Efficient Non-Parametric Bandit Exploration

在本文中,我们提出了第一个基于重采样的多武装强盗算法,该算法同时为不同的武器族(即伯努利,高斯和泊松分布)同时实现了渐近最优后悔。

460

Learning under Model Misspecification: Applications to Variational and Ensemble methods

这项工作中,我们提出了使用新的二阶PAC-Bayes边界族在模型错误指定和iid数据下对贝叶斯模型平均化泛化性能的新颖分析。

461

Language Through a Prism: A Spectral Approach for Multiscale Language Representations

们建议建立模型,以深度表示形式隔离特定于规模的信息,并开发鼓励在训练过程中模型的方法,以了解更多有关特定尺度的信息。

462

DVERGE: Diversifying Vulnerabilities for Enhanced Robust Generation of Ensembles

们提出了DVERGE,它通过提炼非鲁棒特征来隔离每个子模型中的对抗性漏洞,并使对抗性漏洞多样化,从而引发针对转移攻击的多种输出。

463

Towards practical differentially private causal graph discovery

在本文中,我们提出了一种差分私有因果图发现算法Priv-PC,与现有技术相比,该算法可改善实用性和运行时间。

464

Independent Policy Gradient Methods for Competitive Reinforcement Learning

在具有两个代理的竞争性强化学习环境中,我们获得了独立学习算法的全局非渐近收敛性保证(即零和随机游戏)。

465

The Value Equivalence Principle for Model-Based Reinforcement Learning

在本文中,我们认为基于模型的RL代理的有限表示资源可以更好地用于构建直接用于基于价值的计划的模型。

466

Structured Convolutions for Efficient Neural Network Design

这项工作中,我们通过在卷积神经网络构件的隐式结构中利用冗余来解决模型效率。

467

Latent World Models For Intrinsically Motivated Exploration

这项工作中,我们考虑奖励稀疏的部分可观察环境。

468

Estimating Rank-One Spikes from Heavy-Tailed Noise via Self-Avoiding Walks

这项工作中,我们展示了一种估计器,该估计器可处理高达BBP阈值的重尾噪声,即使对于高斯噪声,该估计值也是最佳的。

469

Policy Improvement via Imitation of Multiple Oracles

在本文中,我们提出了Oracle政策价值的州级最大值作为解决多个Oracle冲突建议的自然基准。

470

Training Generative Adversarial Networks by Solving Ordinary Differential Equations

这个角度出发,我们假设训练GAN的不稳定性是由离散连续动力学中的积分误差引起的。

471

Learning of Discrete Graphical Models with Neural Networks

们介绍了NeurISE这是一种用于图形模型学习的基于神经网络的算法,旨在解决GRISE这一局限性。

472

RepPoints v2: Verification Meets Regression for Object Detection

在本文中,我们采用了这种理念来改进最新的对象检测,特别是通过RepPoints

473

Unfolding the Alternating Optimization for Blind Super Resolution

针对这些问题,我们无需采用单独的两个步骤,而是采用交替优化算法,该算法可以估计模糊核并在单个模型中恢复SR图像。

474

Entrywise convergence of iterative methods for eigenproblems

这里我们解决了当在?2?中测量距离时子空间迭代的收敛性。规范并提供确定性界限。

475

Learning Object-Centric Representations of Multi-Object Scenes from Multiple Views

为了解决这个问题,我们建议使用¥textit {Multi-View and Multi-Object NetworkMulMON}-一种通过利用多个视图来学习准确,以对象为中心的多对象场景表示的方法。

476

A Catalyst Framework for Minimax Optimization

们引入了通用的¥emph {two-loop}方案,以实现具有强凸凹目标的平滑minimax优化。

477

Self-supervised Co-Training for Video Representation Learning

本文的目标是仅视觉的自我监督视频表示学习。

478

Gradient Estimation with Stochastic Softmax Tricks

摄动模型框架内,我们介绍了随机的softmax技巧,这些技巧将Gumbel-Softmax技巧推广到组合空间。

479

Meta-Learning Requires Meta-Augmentation

们介绍了元增强的信息理论框架,其中添加随机性会阻止基础学习者和模型学习无法推广到新任务的琐碎解决方案。

480

SLIP: Learning to predict in unknown dynamical systems with long-term memory

们提出了一种有效且实用的(多项式时间)算法,用于在随机噪声下未知和部分观测到的线性动力系统(LDS)中进行在线预测。

481

Improving GAN Training with Probability Ratio Clipping and Sample Reweighting

为解决此问题,我们提出了一种新的变式GAN训练框架,该框架具有出色的训练稳定性。

482

Bayesian Bits: Unifying Quantization and Pruning

们介绍贝叶斯比特,这是一种通过基于梯度的优化进行联合混合精度量化和修剪的实用方法。

483

On Testing of Samplers

本文的主要贡献是对上述挑战的肯定回答:受Barbarik的激励,但我们使用不同的技术和分析,设计了Barbarik2该算法可测试采样器生成的分布是否为ε-距离或ε-距离。任何目标分布。

484

Gaussian Process Bandit Optimization of the Thermodynamic Variational Objective

本文介绍了一种定制的高斯过程土匪优化方法,用于自动选择这些点。

485

MiniLM: Deep Self-Attention Distillation for Task-Agnostic Compression of Pre-Trained Transformers

这项工作中,我们提出了一种简单有效的方法来压缩大型变压器(Vaswani等,2017)的预训练模型,称为深度自注意蒸馏。

486

Optimal Epoch Stochastic Gradient Descent Ascent Methods for Min-Max Optimization

在本文中,我们通过对解决强凸强凹(SCSC)最小-最大问题的时变随机梯度下降上升方法(简称Epoch-GDA进行了清晰的分析,从而弥合了这一差距,而无需对光滑度或功能的结构。

487

Woodbury Transformations for Deep Generative Flows

在本文中,我们介绍了伍德伯里变换,该变换通过伍德伯里矩阵恒等式实现有效的可逆性,并通过西尔维斯特的行列式恒等式实现有效的行列式计算。

488

Graph Contrastive Learning with Augmentations

在本文中,我们提出了一种图对比学习(GraphCL)学习框架,用于学习图数据的无监督表示。

489

Gradient Surgery for Multi-Task Learning

这项工作中,我们确定了导致有害梯度干扰的多任务优化环境的三个条件,并开发了一种简单而通用的方法来避免任务梯度之间的这种干扰。

490

Bayesian Probabilistic Numerical Integration with Tree-Based Models

本文提出了一种基于贝叶斯可加回归树(BART)先验的新贝叶斯数值积分算法(我们称为BART-Int)来解决此问题。

491

Deep learning versus kernel learning: an empirical study of loss landscape geometry and the time evolution of the Neural Tangent Kernel

们研究了非线性深层网络的训练动力学,损失景观的几何形状以及与数据相关的NTK时间演变之间的关系。

492

Graph Meta Learning via Local Subgraphs

这里,我们介绍G-Meta这是一种新颖的图元学习算法。

493

Stochastic Deep Gaussian Processes over Graphs

在本文中,我们提出了图上的随机深高斯过程(DGPG),这是一种深度结构模型,用于学习图域中输入和输出信号之间的映射。

494

Bayesian Causal Structural Learning with Zero-Inflated Poisson Bayesian Networks

为了推断零膨胀计数数据中的因果关系,我们提出了一种新的零膨胀泊松贝叶斯网络(ZIPBN)模型。

495

Evaluating Attribution for Graph Neural Networks

这项工作中,我们为GNN编了常用的归因方法,并使用客观且具有挑战性的可计算基础对它们进行了定量评估。

496

On Second Order Behaviour in Augmented Neural ODEs

这项工作中,我们考虑了二阶神经ODESONODE)。

497

Neuron Shapley: Discovering the Responsible Neurons

们引入了一种新的多臂强盗算法,该算法能够比现有的Shapley值近似方法更快地检测到具有最大Shapley值数量级的神经元。

498

Stochastic Normalizing Flows

这里,我们提出了一种用于采样目标密度的通用组合方法:随机归一化流(SNF确定性可逆函数和随机采样块的任意序列。

499

GPU-Accelerated Primal Learning for Extremely Fast Large-Scale Classification

这项工作中,我们表明使用明智的GPU优化原则,可以大幅减少针对不同损失和特征表示的TRON训练时间。

500

Random Reshuffling is Not Always Better

们以非交换算术和几何均值的算子不等式为反例,这是一个长期的推测,与学习算法中随机改组的性能有关(Recht迈向非交换算术-几何平均不等式:猜想,案例研究,和后果COLT 2012)。

501

Model Agnostic Multilevel Explanations

在本文中,我们提出了一种元方法,在给出典型的局部可解释性方法的情况下,该方法可以构建多级解释树。

502

NeuMiss networks: differentiable programming for supervised learning with missing values.

这项工作中,我们在线性假设和各种缺失数据机制(包括随机缺失(MAR)和自掩蔽(不随机缺失))下得出最优预测变量的分析形式。

503

Revisiting Parameter Sharing for Automatic Neural Channel Number Search

在本文中,我们旨在为CNS提供更好的理解和参数共享。

504

Differentially-Private Federated Linear Bandits

在本文中,我们将在上下文线性强盗的背景下对此进行研究:我们考虑了一组协作解决共同的上下文强盗的特工,同时确保他们的交流保持私密性。

505

Is Plug-in Solver Sample-Efficient for Feature-based Reinforcement Learning?

们通过插件求解器方法解决了这个问题,该方法建立了一个经验模型,并通过一个任意的插件求解器在该经验模型中进行了计划。

506

Learning Physical Graph Representations from Visual Scenes

为了克服这些限制,我们引入了物理场景图PSG)的概念,该概念将场景表示为层次图,层次结构中的节点直观地对应于不同比例的对象零件,而边缘对应于零件之间的物理连接。

507

Deep Graph Pose: a semi-supervised deep graphical model for improved animal pose tracking

们提出了一个基于深度神经网络的概率图形模型Deep Graph PoseDGP),以利用这些有用的时空约束,并开发一种有效的结构化变分方法来在该模型中进行推理。

508

Meta-learning from Tasks with Heterogeneous Attribute Spaces

们提出了一种异构元学习方法,该方法在具有各种属性空间的任务上训练模型,从而可以解决在给定标记实例的情况下属性空间与训练任务不同的看不见的任务。

509

Estimating decision tree learnability with polylogarithmic sample complexity

们证明自顶向下的决策树学习启发法(例如ID3C4.5CART)适合于高效的{¥sl可学习性估计}对于单调目标函数,由这些启发法构造的决策树假设的误差可以使用{¥sl polylogarithmically}计的许多示例,以指数形式小于运行这些启发式方法所需的数量,并且以实数形式小于学习良好决策树所需的信息理论最小值。

510

Sparse Symplectically Integrated Neural Networks

们介绍了稀疏的符号集成神经网络(SSINNs),这是一种从数据中学习哈密顿动力学系统的新颖模型。

511

Continuous Object Representation Networks: Novel View Synthesis without Target View Supervision

们提出了连续对象表示网络(CORN),这是一种条件架构,可对输入图像的几何形状和外观进行编码,并映射到3D一致的场景表示中。

512

Multimodal Generative Learning Utilizing Jensen-Shannon-Divergence

这项工作中,我们提出了一种新颖的,高效的目标函数,该函数利用Jensen-Shannon发散来实现多种分布。

513

Solver-in-the-Loop: Learning from Differentiable Physics to Interact with Iterative PDE-Solvers

们针对减少迭代PDE求解器的数值误差的问题,并比较了不同的学习方法以查找复杂的校正函数。

514

Reinforcement Learning with General Value Function Approximation: Provably Efficient Approach via Bounded Eluder Dimension

在本文中,我们建立了第一个具有通用值函数近似的可证明有效的RL算法。

515

Predicting Training Time Without Training

们解决了预测预训练的深度网络收敛到损失函数给定值所需的优化步骤数的问题。

516

How does This Interaction Affect Me? Interpretable Attribution for Feature Interactions

们提出了一个名为Archipelago的交互归因和检测框架,该框架可以解决这些问题,并且可以在实际环境中进行扩展。

517

Optimal Adaptive Electrode Selection to Maximize Simultaneously Recorded Neuron Yield

这里,我们提出了一种称为基于分类的选择(CBS)的算法,该算法针对所有记录通道优化了联合电极选择,从而最大程度地提高了检测到的神经元的隔离质量。

518

Neurosymbolic Reinforcement Learning with Formally Verified Exploration

们提出了REVEL这是一种部分神经增强学习(RL)框架,用于在连续状态和动作空间中进行可证明的安全探索。

519

Wavelet Flow: Fast Training of High Resolution Normalizing Flows

本文介绍了小波流,它是一种基于小波的多尺度归一化流架构。

520

Multi-task Batch Reinforcement Learning with Metric Learning

为了增强任务推理能力,我们提出了三重态损失的新颖应用。

521

On 1/n neural representation and robustness

这项工作中,我们通过人工神经网络将关于鼠标V1Stringer等人)中神经表示的协方差光谱的实验结果并置来研究后者。

522

Boundary thickness and robustness in learning models

在本文中,我们介绍了分类器边界厚度的概念,并描述了分类器与模型鲁棒性的联系及其有用性。

523

Demixed shared component analysis of neural population data from multiple brain areas

在此,受针对单个大脑区域开发的方法的启发,我们引入了一种用于跨多个大脑区域对变量进行混合的新技术,称为混合共享成分分析(dSCA)。

524

Learning Kernel Tests Without Data Splitting

选择性推理框架的启发,我们提出了一种方法,该方法可以学习超参数并在不拆分数据的情况下对整个样本进行测试。

525

Unsupervised Data Augmentation for Consistency Training

这项工作中,我们提出了一种如何有效地对未标记示例进行噪声处理的新观点,并指出噪声的质量,特别是通过高级数据增强方法产生的噪声,在半监督学习中起着至关重要的作用。

526

Subgroup-based Rank-1 Lattice Quasi-Monte Carlo

为了解决这个问题,我们提出了一种基于群论的简单的闭合形式的rank-1构造方法。

527

Minibatch vs Local SGD for Heterogeneous Distributed Learning

们在异构分布式环境中分析本地SGD(又名并行SGD联合SGD)和Minibatch SGD,其中每台机器都可以访问针对不同机器特定凸目标的随机梯度估计;目标是优化平均目标;而且机器只能间歇性地通信。

528

Multi-task Causal Learning with Gaussian Processes

们提出了第一个多任务因果高斯过程(GP)模型,我们将其称为DAG-GP该模型允许跨连续干预和跨不同变量的实验共享信息。

529

Proximity Operator of the Matrix Perspective Function and its Applications

过这种联系,我们提出了一种针对根查找问题的二次收敛牛顿算法。实验证明,对接近算子的评估最多需要8顿步,而在标准笔记本电脑上20002000阵花费的时间少于5s

530

Generative 3D Part Assembly via Dynamic Graph Learning

在本文中,我们从视觉方面着眼于姿势估计子问题,涉及输入零件几何形状的几何和关系推理。

531

Improving Natural Language Processing Tasks with Human Gaze-Guided Neural Attention

因此,我们的工作引入了一种在数据驱动模型和认知模型之间架桥的实用方法,并展示了一种将人类注视引导的神经注意力整合到NLP务中的新方法。

532

The Power of Comparisons for Actively Learning Linear Classifiers

尽管先前的结果表明,主动学习的表现并不比其对重要概念类别(如线性分隔符)的监督替代方案更好,但我们表明,通过添加弱分布假设并允许进行比较查询,主动学习所需的样本量将成倍减少。

533

From Boltzmann Machines to Neural Networks and Back Again

这项工作中,我们给出了学习受限玻尔兹曼机器(可能是研究最深入的潜变量模型类别)的新结果。

534

Crush Optimism with Pessimism: Structured Bandits Beyond Asymptotic Optimality

在本文中,我们关注于有限假设的情况,并问一问是否可以实现渐进最优同时尽可能地享受有限的遗憾。

535

Pruning neural networks without any data by iteratively conserving synaptic flow

这就提出了一个基本的问题:我们是否可以在初始化时识别出稀疏的可训练子网,而无需进行训练,或者甚至不需要查看数据?我们通过理论驱动的算法设计为这个问题提供了肯定的答案。

536

Detecting Interactions from Neural Networks via Topological Analysis

基于观察的动机,在本文中,我们建议通过分析神经网络的连通性,从新颖的拓扑角度研究交互检测问题。

537

Neural Bridge Sampling for Evaluating Safety-Critical Autonomous Systems

这项工作中,我们采用概率方法对模拟中的安全性进行评估,其中我们关注计算危险事件的可能性。

538

Interpretable and Personalized Apprenticeship Scheduling: Learning Interpretable Scheduling Policies from Heterogeneous User Demonstrations

们提出了一种个性化且可解释的学徒计划算法,该算法通过根据演示者类型数量的推断性,个性化嵌入非参数来提取决策标准,从而推断出所有人工任务演示者的可解释性表示形式。

539

Task-Agnostic Online Reinforcement Learning with an Infinite Mixture of Gaussian Processes

本文提出了一种基于在线连续模型的强化学习方法,该方法不需要进行预训练即可解决任务边界未知的任务不可知问题。

540

Benchmarking Deep Learning Interpretability in Time Series Predictions

在本文中,我们着手在合成时间序列数据的新基准中,广泛地比较各种基于显着性的可解释性方法在各种神经体系结构(包括递归神经网络,时间卷积网络和变压器)中的性能。

541

Federated Principal Component Analysis

在内存受限的情况下,我们针对$¥PCA $提出了联邦,异步和$¥varepsilon¥delta$差分私有算法。

542

(De)Randomized Smoothing for Certifiable Defense against Patch Attacks

在本文中,我们介绍了一种针对补丁攻击的可验证防御措施,可确保针对给定的映像和补丁攻击大小,不存在补丁对抗示例。

543

SMYRF – Efficient Attention using Asymmetric Clustering

们提出了一种新型的平衡聚类算法来近似注意力。

544

Introducing Routing Uncertainty in Capsule Networks

与其在相邻的胶囊层之间执行低效的局部迭代路由,不如在表示零件-对象分配中的固有不确定性的基础上,提出一种替代的全局视图。

545

A Simple and Efficient Smoothing Method for Faster Optimization and Local Exploration

这项工作提出了一种新的平滑方法,称为弯曲,混合和释放(BMR),它扩展了凸优化文献的两个众所周知的平滑近似:随机平滑和Moreau络。

546

Hyperparameter Ensembles for Robustness and Uncertainty Quantification

在本文中,我们不仅在权重上设计合奏,还在超参数上设计合奏,以提高两种设置的技术水平。

547

Neutralizing Self-Selection Bias in Sampling for Sortition

为了仍然生产其组成类似于总体组成的面板,我们开发了一种采样算法,该算法可以在满足有意义的人口配额的同时,恢复所有特工的近似表示概率。

548

On the Convergence of Smooth Regularized Approximate Value Iteration Schemes

这项工作中,我们使用近似动态编程框架从错误传播的角度分析了这些技术。

549

Off-Policy Evaluation via the Regularized Lagrangian

在本文中,我们将这些估计量统一为同一线性程序的正则化拉格朗日数。

550

The LoCA Regret: A Consistent Metric to Evaluate Model-Based Behavior in Reinforcement Learning

为了解决这个问题,我们引入了一个实验装置来评估RL方法基于模型的行为,这是受到神经科学在检测人和动物中基于模型的行为的启发下进行的。

551

Neural Power Units

们介绍了神经幂运算单元(NPU),它在实数的完整域上运行,并且能够在单层中学习任意幂函数。

552

Towards Scalable Bayesian Learning of Causal DAGs

们提出了显着减少空间和时间要求的算法技术,这使得使用较大的K值是可行的。

553

A Dictionary Approach to Domain-Invariant Learning in Deep Networks

在本文中,我们通过在卷积神经网络(CNN)中仅使用少量领域特定参数对领域转移进行显式建模来考虑领域不变深度学习。

554

Bootstrapping neural processes

为此,我们提出了自举神经过程(BNP),这是使用引导程序的NP系列的一种新型扩展。

555

Large-Scale Adversarial Training for Vision-and-Language Representation Learning

们介绍VILLA这是针对视觉和语言(V + L)表示学习的大规模对抗训练的第一个已知工作。

556

Most ReLU Networks Suffer from $\ell^2$ Adversarial Perturbations

们考虑具有随机权重的ReLU络,其中维度在每一层减小。

557

Compositional Visual Generation with Energy Based Models

在本文中,我们表明基于能量的模型可以通过直接组合概率分布来展现这种能力。

558

Factor Graph Grammars

们建议对因子图使用超边置换图语法,或者简称为参与者图语法(FGG)。

559

Erdos Goes Neural: an Unsupervised Learning Framework for Combinatorial Optimization on Graphs

这项工作为图形上的CO问题提出了一个无监督的学习框架,该框架可以提供认证质量的完整解决方案。

560

Autoregressive Score Matching

为了提高灵活性,我们提出了自回归条件评分模型(AR-CSM),其中我们根据单变量对数条件(分数)的导数来对联合分布进行参数化,而无需对其进行归一化。

561

Debiasing Distributed Second Order Optimization with Surrogate Sketching and Scaled Regularization

这里,我们介绍了一种用于消除局部估计偏差的新技术,这导致了分布式二阶方法的收敛速度的理论和经验上的改进。

562

Neural Controlled Differential Equations for Irregular Time Series

这里,我们展示了如何通过¥emph {受控微分方程}的数学知识来解决这个问题。

563

On Efficiency in Hierarchical Reinforcement Learning

在本文中,我们讨论了在马尔可夫决策过程中产生有效HRL方法的结构类型。

564

On Correctness of Automatic Differentiation for Non-Differentiable Functions

这种现状提出了一个自然的问题:将autodiff统应用于此类不可微分函数时,在形式上是否正确?在本文中,我们为这个问题提供了肯定的答案。

565

Probabilistic Linear Solvers for Machine Learning

结合先前的工作,我们提出了一类概率线性求解器,它们共同推断矩阵,矩阵的逆和矩阵向量乘积观测值的解。

566

Dynamic Regret of Policy Optimization in Non-Stationary Environments

们提出了两种无模型的策略优化算法POWERPOWER ++,并为其动态后悔建立了保证。

567

Multipole Graph Neural Operator for Parametric Partial Differential Equations

经典多极方法的启发,我们的目标是建立一种新颖的多级图神经网络框架,该框架仅线性复杂度即可捕获所有范围的相互作用。

568

BlockGAN: Learning 3D Object-aware Scene Representations from Unlabelled Images

们介绍了BlockGAN这是一种图像生成模型,可以直接从未标记的2D图像中学习对象感知的3D场景表示。

569

Online Structured Meta-learning

过提出在线结构化元学习(OSML)框架,我们克服了这一限制。

570

Learning Strategic Network Emergence Games

们提出了MINE(网络出现机制的多主体逆模型),这是一种使用多主体逆增强学习解决Markov-Perfect络出现游戏的新学习框架。

571

Towards Interpretable Natural Language Understanding with Explanations as Latent Variables

在本文中,我们为可解释的自然语言理解开发了一个通用框架,该框架只需要一小部分人工注释的解释即可进行培训。

572

The Mean-Squared Error of Double Q-Learning

在本文中,我们建立了双重Q习和Q习的渐进均方误差的理论比较。

573

What Makes for Good Views for Contrastive Learning?

在本文中,我们使用理论和经验分析来更好地理解视图选择的重要性,并认为应该在保持与任务相关的信息完整的同时减少视图之间的互信息。

574

Denoising Diffusion Probabilistic Models

们使用扩散概率模型提供了高质量的图像合成结果,扩散概率模型是一类由非平衡热力学引起的潜变量模型。

575

Barking up the right tree: an approach to search over molecule synthesis DAGs

因此,我们提出了一个通过直接输出分子合成DAG更好地代表现实世界过程的深度生成模型。

576

On Uniform Convergence and Low-Norm Interpolation Learning

们考虑一个不确定的噪声线性回归模型,其中最小范数插值预测变量已知是一致的,并问:该算法中的范数球是否可以均匀收敛,或者至少(遵循NagarajanKolter该范数球的子集选择一个典型的输入集,说明成功吗?

577

Bandit Samplers for Training Graph Neural Networks

在本文中,我们将抽样方差的优化公式描述为一个敌对的强盗问题,其中奖励与节点嵌入和学习权重有关,并且可以不断变化。

578

Sampling from a k-DPP without looking at all items

在本文中,我们开发了alpha-DPP算法,该算法可自适应地构建足够大的统一数据样本,然后将其用于高效地生成k项目的较小集合,同时确保从定义于以下项的目标分布中准确提取出该集合:全部n项目。

579

Uncovering the Topology of Time-Varying fMRI Data using Cubical Persistence

为了解决这一挑战,我们提出了一种新颖的拓扑方法,该方法将fMRI数据集中的每个时间点编码为拓扑特征的持久性图,即数据中存在的高维空隙。

580

Hierarchical Poset Decoding for Compositional Generalization in Language

在本文中,我们提出了一种新颖的分层姿势解码范例,用于语言中的组合概括。

581

Evaluating and Rewarding Teamwork Using Cooperative Game Abstractions

们介绍了一种称为合作游戏抽象(CGA)的参数模型,用于从数据中估计特征函数。

582

Exchangeable Neural ODE for Set Modeling

这项工作中,我们提出了一个更通用的公式来通过常微分方程(ODE实现置换等方差。

583

Profile Entropy: A Fundamental Measure for the Learnability and Compressibility of Distributions

们表明,对于离散分布的样本,轮廓熵是统一估计,推断和压缩概念的基本度量。

584

CoADNet: Collaborative Aggregation-and-Distribution Networks for Co-Salient Object Detection

在本文中,我们提出了一个端到端的协作聚合和分发网络(CoADNet),以捕获来自多个图像的显着和重复的视觉模式。

585

Regularized linear autoencoders recover the principal components, eventually

们表明,学习最佳表示形式的效率低下不是不可避免的-们提出了对梯度下降更新的简单修改,从而通过经验极大地加快了收敛速度。

586

Semi-Supervised Partial Label Learning via Confidence-Rated Margin Maximization

为了解决这个困难,本文研究了半监督部分标签学习的问题,其中利用未标签数据和部分标签训练示例来促进模型归纳。

587

GramGAN: Deep 3D Texture Synthesis From 2D Exemplars

们提出了一种新颖的纹理合成框架,可以在给定2D示例图像的情况下生成无限,高质量的3D纹理。

588

UWSOD: Toward Fully-Supervised-Level Capacity Weakly Supervised Object Detection

在本文中,我们提出了一个统一的WSOD框架(称UWSOD),以开发仅包含图像级标签的大容量通用检测模型,该模型是独立的,不需要外部模块或其他监督。

589

Learning Restricted Boltzmann Machines with Sparse Latent Variables

在本文中,我们给出了一种用于学习时间复杂度为¥¥tilde {O}n ^ {2 ^ s + 1}$的常RBM的算法,其中$ s $连接到MRF邻域的潜在变量的最大数量观察变量

590

Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and Variance Reduction

重点关注具有状态空间S动作空间A的,折价了¥¥gamma $MDP,我们证明了基于$¥ell_ {¥infty} $经典异步Q习的样本复杂度-即,需要得出Q函数的初始$¥epsilon $精确估-最多约为$¥frac {1} {¥mu_ {¥min}1-¥gamma^ 5¥epsilon ^ 2} + ¥frac {t_ {¥mathsf {mix}}}} {¥mu_ {¥min}1-¥gamma} $直到某个对数因子,前提是采用适当的恒定学习率。

591

Curriculum learning for multilevel budgeted combinatorial problems

过在多主体强化学习环境中构建框架,我们设计了一种基于价值的方法来学习解决涉及零和游戏的两名参与者在图表上的多级预算组合问题。

592

FedSplit: an algorithmic framework for fast federated optimization

为了解决这些问题,我们介绍了FedSplit这是一类基于算子拆分过程的算法,用于解决具有加法结构的分布式凸极小化问题。

593

Estimation and Imputation in Probabilistic Principal Component Analysis with Missing Not At Random Data

们继续进行这方面的研究,但将其扩展到更一般的MNAR机制,即概率主成分分析(PPCA)的更一般模型¥textit {ie}这是具有随机效应的低秩模型。

594

Correlation Robust Influence Maximization

们针对影响最大化问题提出了一种分布鲁棒模型。

595

Neuronal Gaussian Process Regression

这里,我建议大脑实现GP归并为其提供神经网络(NNs)。

596

Nonconvex Sparse Graph Learning under Laplacian Constrained Graphical Model

在本文中,我们考虑了从拉普拉斯约束高斯图形模型中学习稀疏图的问题。

597

Synthetic Data Generators — Sequential and Private

们研究了无限制大小的统计查询类别上的私有合成数据生成的样本复杂性,并表明,任何可以适当地学习PAC的类都可以接受私有合成数据生成器(也许是无效的)。

598

Uncertainty Quantification for Inferring Hawkes Networks

为此,我们开发了一个统计推断框架,以从网络数据中学习节点之间的因果关系,其中潜在的有向图表示格兰杰因果关系。

599

Implicit Distributional Reinforcement Learning

为了提高基于策略梯度的强化学习算法的样本效率,我们提出了隐式分布式行动者批评者(IDAC),它由基于两个深层生成器网络(DGN)和半隐式行动者(SIA)的分布式评论者组成,由灵活的策略分发提供支持。

600

Auxiliary Task Reweighting for Minimum-data Learning

这项工作中,我们提出了一种自动重新加权辅助任务的方法,以减少对主任务的数据需求。

601

Small Nash Equilibrium Certificates in Very Large Games

在本文中,我们介绍一种方法,该方法表明可以在这种环境下提供可利用性保证,而无需探索整个游戏。

602

Training Linear Finite-State Machines

在本文中,我们介绍了一种可以训练基于多层FSM的网络的方法,其中FSM连接到上一层和下一层的每个FSM

603

Efficient active learning of sparse halfspaces with arbitrary bounded noise

这项工作中,我们通过设计用于主动学习$ s $稀疏半空间的多项式时间算法对其进行了实质性改进,其标签复杂度为$¥tilde {O}¥big¥frac {s} {{1-2 ¥eta^ 4} polylogd¥frac 1¥epsilon¥big$

604

Swapping Autoencoder for Deep Image Manipulation

们提出了交换自动编码器(Swapping Autoencoder),这是一种专为图像处理而非随机采样而设计的深层模型。

605

Self-Supervised Few-Shot Learning on Point Clouds

为了解决这个问题,我们提出了两种新颖的自我监督的预训练任务,它们使用覆盖树对点云的分层分区进行编码,其中,点云子集位于覆盖树的每个级别的半径不同的球中。

606

Faster Differentially Private Samplers via R?nyi Divergence Analysis of Discretized Langevin MCMC

这项工作中,我们在更适合差异隐私的距离度量下为这些算法建立了快速收敛。

607

Learning identifiable and interpretable latent models of high-dimensional neural activity using pi-VAE

为了解决这个问题,我们提出了一种将潜在模型和传统神经编码模型中关键要素集成在一起的方法。

608

RL Unplugged: A Collection of Benchmarks for Offline Reinforcement Learning

在本文中,我们提出了一个称为RL Unplugged的基准,以评估和比较离线RL方法。

609

Dual T: Reducing Estimation Error for Transition Matrix in Label-noise Learning

因此,本文旨在通过利用分而治之范式解决这一问题。

610

Interior Point Solving for LP-based prediction+optimisation

相反,我们研究了更原则的对数势垒项的使用,该对数势垒项广泛用于线性规划的内部点求解器。

611

A simple normative network approximates local non-Hebbian learning in the cortex

从数学上讲,我们从一系列的降低秩回归(RRR)目标函数开始,其中包括降低秩(最小)均方误差(RRMSE)和规范相关分析(CCA),并推导新颖的离线和在线优化算法,我们称之为生物RRR

612

Kernelized information bottleneck leads to biologically plausible 3-factor Hebbian learning in deep networks

这里,我们介绍了一系列学习规则,这些规则不会遭受任何这些问题的困扰。

613

Understanding the Role of Training Regimes in Continual Learning

这项工作中,我们脱离了改变学习算法以提高稳定性的典型方法。

614

Fair regression with Wasserstein barycenters

们研究学习满足人口奇偶校验约束的实值函数的问题。

615

Training Stronger Baselines for Learning to Optimize

由于研究工作集中在日益复杂的L2O模型上,因此我们提出了一个正交的,尚未探索的主题:改进的L2O模型训练技术。

616

Exactly Computing the Local Lipschitz Constant of ReLU Networks

们提供了一个充分的条件,对于该条件,反向传播总是返回广义雅可比矩阵的一个元素,并在这一广泛的函数类别中重新构造问题。

617

Strictly Batch Imitation Learning by Energy-based Distribution Matching

为了解决这一挑战,我们提出了一种基于能量的分布匹配(EDM)的新技术:通过使用状态生成的(生成)能量函数识别策略的(区分)模型的参数化,EDM产生了一个简单而有效的解决方案这等效地最小化了演示者的占用度量与其模仿者的模型之间的差异。

618

On the Ergodicity, Bias and Asymptotic Normality of Randomized Midpoint Sampling Method

在本文中,我们考虑了过阻尼和欠阻尼朗格文动力学,分析了随机中点离散化方法的几个概率性质。

619

A Single-Loop Smoothed Gradient Descent-Ascent Algorithm for Nonconvex-Concave Min-Max Problems

在本文中,我们介绍了一种平滑方案,该方案可以与GDA结合使用,以稳定振荡并确保收敛到平稳解。

620

Generating Correct Answers for Progressive Matrices Intelligence Tests

这项工作中,根据定义,我们将精力集中在生成给定网格的正确答案上,这是一项艰巨的任务。

621

HyNet: Learning Local Descriptor with Hybrid Similarity Measure and Triplet Loss

在本文中,我们研究了L2归一化如何在训练过程中影响反向传播的描述符梯度。

622

Preference learning along multiple criteria: A game-theoretic perspective

这项工作中,我们从布莱克韦尔的平易近人中获得启发,将冯·诺伊曼奖得主的概念推广到多标准环境。

623

Multi-Plane Program Induction with 3D Box Priors

与先前基于图像的程序合成工作(假定图像包含单个可见2D平面)不同,我们提出了Box Program InductionBPI),它可以推断出类似程序的场景表示形式,该场景表示可以同时对多个2D平面(3D)上的重复结构进行建模平面的位置和方向以及相机参数,均来自单个图像。

624

Online Neural Connectivity Estimation with Noisy Group Testing

这里,我们提出了一种基于噪声组测试的方法,该方法可以大大提高稀疏网络中该过程的效率。

625

Once-for-All Adversarial Training: In-Situ Tradeoff between Robustness and Accuracy for Free

们提出的框架,即全民对抗训练(OAT),建立在创新的模型条件训练框架之上,并以控制超参数作为输入。

626

Implicit Neural Representations with Periodic Activation Functions

们建议利用周期性激活函数进行隐式神经表示,并证明这些被称为正弦表示网络或SIREN的网络非常适合表示复杂的自然信号及其衍生物。

627

Rotated Binary Neural Network

在本文中,我们首次探讨了角度偏差对量化误差的影响,然后引入了旋转二进制神经网络(RBNN),该模型考虑了全权重向量及其二值化版本之间的角度对齐。

628

Community detection in sparse time-evolving graphs with a dynamical Bethe-Hessian

提出了一种基于Bethe-Hessian阵扩展的快速谱算法,该算法得益于类别标签及其时间演化的正相关性,可应用于具有社区结构的任何动态图。

629

Simple and Principled Uncertainty Estimation with Deterministic Deep Learning via Distance Awareness

这促使我们研究仅需单个深度神经网络(DNN)的高质量不确定性估计的原则方法。

630

Adaptive Learning of Rank-One Models for Efficient Pairwise Sequence Alignment

这项工作中,我们提出了一种基于两种关键新成分的成对比对估计的新方法。

631

Hierarchical nucleation in deep neural networks

这项工作中,我们研究了一些最新的DCNImageNet数据集在隐藏层上的概率密度的演变。

632

Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains

们建议一种选择特定于问题的傅立叶特征的方法,该方法可大大提高MLP在与计算机视觉和图形社区相关的低维回归任务上的性能。

633

Graph Geometry Interaction Learning

为了利用欧氏几何和双曲线几何的强度,我们开发了一种新颖的几何交互学习(GIL)方法用于图形,这是一种用于学习图形中丰富几何特性的合适且有效的替代方法。

634

Differentiable Augmentation for Data-Efficient GAN Training

为了解决这个问题,我们提出了微分增强(DiffAugment),这是一种通过在真实和假样本上施加各种类型的微分增强来提高GAN数据效率的简单方法。

635

Heuristic Domain Adaptation

在本文中,我们从启发式搜索的角度解决了领域不变和领域特定信息的建模问题。

636

Learning Certified Individually Fair Representations

这项工作中,我们介绍了第一种方法,该方法使数据使用者能够获取现有数据点和新数据点的个体公平性证书。

637

Part-dependent Label Noise: Towards Instance-dependent Label Noise

这种人类认知的推动下,本文通过利用¥textit {part-dependent}标签噪声来近似与实例相关的标签噪声。

638

Tackling the Objective Inconsistency Problem in Heterogeneous Federated Optimization

利用来自此分析的见解,我们提出了FedNova这是一种归一化的平均方法,它消除了目标不一致,同时保留了快速的误差收敛。

639

An Improved Analysis of (Variance-Reduced) Policy Gradient and Natural Policy Gradient Methods

在本文中,我们回顾并改进了一般平滑政策参数设置下的政策梯度(PG),自然PGNPG)方法及其减少方差的收敛性。

640

Geometric Exploration for Online Control

们研究了一般凸成本下¥mph {unknown}线性动力系统的控制。

641

Automatic Curriculum Learning through Value Disagreement

受此启发,我们建议针对代理商需要解决的目标设置自动课程。

642

MRI Banding Removal via Adversarial Training

这项工作中,我们建议使用对抗损失,这种损失会惩罚条带结构,而无需任何人工注释。

643

The NetHack Learning Environment

这里,我们介绍了NetHack习环境(NLE),它是一种基于流行的基于单终端的基于RoguelikeNetHack的可扩展的,程序生成的,随机的,丰富且具有挑战性的环境,用于RL研究。

644

Language and Visual Entity Relationship Graph for Agent Navigation

为了捕获和利用这些关系,我们提出了一种新颖的语言和视觉实体关系图,用于建模文本和视觉之间的模态关系以及视觉实体之间的模态关系。

645

ICAM: Interpretable Classification via Disentangled Representations and Feature Attribution Mapping

这里,我们提出了一个新颖的框架,可以通过图像到图像的翻译来创建类特定的FA映射。

646

Spectra of the Conjugate Kernel and Neural Tangent Kernel for linear-width neural networks

们研究了与多层前馈神经网络相关的共轭核和神经正切核的特征值分布。

647

No-Regret Learning Dynamics for Extensive-Form Correlated Equilibrium

在本文中,我们给出了第一个解耦的无遗憾动态,该动态收敛到具有完美召回作用的n玩家一般和广泛形式游戏中的EFCE集。

648

Estimating weighted areas under the ROC curve

结果证明了学习算法的合理性,该算法选择得分函数以最大化曲线下的经验局部面积(pAUC)。

649

Can Implicit Bias Explain Generalization? Stochastic Convex Optimization as a Case Study

们可以用最简单的非平凡设置重新审视此范例,并在随机凸优化的背景下研究随机梯度下降(SGD)的隐含偏差。

650

Generalized Hindsight for Reinforcement Learning

为了利用这种洞察力并有效地重用数据,我们提出了通用Hindsight:一种近似的反向强化学习技术,用于用正确的任务重新标记行为。

651

Critic Regularized Regression

在本文中,我们提出了一种新颖的离线RL算法,可以使用批评者正则化回归(CRR)的形式从数据中学习策略。

652

Boosting Adversarial Training with Hypersphere Embedding

这项工作中,我们主张通过将特征正则化到紧凑的流形上,将超球面嵌入(HE)机制纳入AT程序中,该流形结构构成了一个轻巧而有效的模块,以融合表示学习的优势。

653

Beyond Homophily in Graph Neural Networks: Current Limitations and Effective Designs

受此限制的驱使,我们确定了一组关键设计(自我嵌入和邻域嵌入分离,高阶邻域以及中间表示的组合),这些设计可以促进从异构结构下的图结构学习。

654

Modeling Continuous Stochastic Processes with Dynamic Normalizing Flows

这项工作中,我们提出了一种由连续时间维纳过程的微分变形驱动的新型归一化流。

655

Efficient Online Learning of Optimal Rankings: Dimensionality Reduction via Gradient Descent

这项工作中,我们展示了如何在多项式时间内实现GMSSC的低后悔。

656

Training Normalizing Flows with the Information Bottleneck for Competitive Generative Classification

这项工作中,首先,我们开发了IB-INN的理论和方法,IB-INN是一类条件归一化流程,其中使用IB标训练了INN:引入少量可控制的信息损失可以渐近精确地表示IB,同时保持INN的生成能力不变。

657

Detecting Hands and Recognizing Physical Contact in the Wild

们提出了一种基于Mask-RCNN的新颖卷积网络,该网络可以共同学习对手进行定位并预测其物理接触以解决该问题。

658

On the Theory of Transfer Learning: The Importance of Task Diversity

当通过学习跨不同任务共享的特征表示实现转移时,我们通过表示学习为转移学习提供了新的统计保证。

659

Finite-Time Analysis of Round-Robin Kullback-Leibler Upper Confidence Bounds for Optimal Adaptive Allocation with Multiple Plays and Markovian Rewards

们研究了经典的随机多臂匪问题的扩展,该问题涉及在强盗休息情况下的多重游戏和马尔可夫奖励。

660

Neural Star Domain as Primitive Representation

为了解决这个问题,我们提出了一种新颖的原始表示形式,称为神经星域(NSD),它可以学习星域中的原始形状。

661

Off-Policy Interval Estimation with Lipschitz Value Iteration

这项工作中,我们提出了一种可证明正确的方法,用于在一般连续的环境中获得非政策评估的区间界限。

662

Inverse Rational Control with Partially Observable Continuous Nonlinear Dynamics

这里,我们容纳了连续的非线性动力学和连续的动作,并归因于动物专有的未知噪声所破坏的归类感官观察。

663

Deep Statistical Solvers

本文介绍了深度统计求解器(DSS),这是一类针对优化问题的新型可训练求解器,例如系统仿真产生的问题。

664

Distributionally Robust Parametric Maximum Likelihood Estimation

为了缓解这些问题,我们提出了一种分布鲁棒的最大似然估计器,该估计器将参数标称分布周围的参数Kullback-Leibler球上的最坏情况下的预期对数损失均匀地最小化。

665

Secretary and Online Matching Problems with Machine Learned Advice

特别是,我们研究以下在线选择问题:(i经典秘书问题,(ii)在线二部匹配,以及(iii图形拟阵秘书问题。

666

Deep Transformation-Invariant Clustering

相反,我们提出了一种正交方法,该方法不依赖抽象特征,而是学习预测变换并直接在图像空间中执行聚类。

667

Overfitting Can Be Harmless for Basis Pursuit, But Only to a Degree

相反,在本文中,我们研究了使L1范数最小化的过拟合解决方案,在压缩传感文献中将其称为基础追求(BP)。

668

Improving Generalization in Reinforcement Learning with Mixture Regularization

这项工作中,我们引入了一种简单的方法,称为mixreg该方法在来自不同训练环境的混合观测值上训练代理,并对观测值插值和监督(例如相关奖励)插值施加线性约束。

669

Pontryagin Differentiable Programming: An End-to-End Learning and Control Framework

PDP过两种新颖的技术与现有方法区别开来:首先,我们通过Pontryagin的最大原理进行区分,这允许在最优控制系统内获得轨迹关于可调参数的解析导数,从而实现端到端学习动态,政策或/和控制目标功能;其次,我们在PDP框架的后向中提出了一个辅助控制系统,该辅助控制系统的输出是原始系统轨迹相对于参数的解析导数,可以使用标准控制工具来迭代求解。

670

Learning from Aggregate Observations

在本文中,我们将MIL从二进制分类扩展到其他问题,例如多分类和回归。

671

The Devil is in the Detail: A Framework for Macroscopic Prediction via Microscopic Models

在本文中,我们通过基于条件随机优化的微观模型拟合,为宏观预测提出了一种有原则的优化框架。

672

Subgraph Neural Networks

这里,我们介绍SubGNN这是一个子图神经网络,用于学习解缠结的子图表示形式。

673

Demystifying Orthogonal Monte Carlo and Beyond

在本文中,我们运用OMC负相关随机变量理论来获得一些新的集中结果,从而为OMC背后的理论原理提供了新的思路。

674

Optimal Robustness-Consistency Trade-offs for Learning-Augmented Online Algorithms

在本文中,我们提供了使用机器学习的预测进行竞争分析的第一组非平凡下界。

675

A Scalable Approach for Privacy-Preserving Collaborative Machine Learning

们提出COPML这是一种完全分散的培训框架,可以同时实现可伸缩性和隐私保护。

676

Glow-TTS: A Generative Flow for Text-to-Speech via Monotonic Alignment Search

这项工作中,我们提出了Glow-TTS这是一种基于流的并行TTS生成模型,不需要任何外部对准器。

677

Towards Learning Convolutions from Scratch

为了找到描述长度较小的体系结构,我们提出了beta-LASSO这是LASSO算法的一种简单变体,当将其应用于完全连接的网络以进行图像分类任务时,可以学习具有本地连接的体系结构并实现最新的精度在CIFAR-1084.50%),CIFAR-10057.76%)和SVHN93.84%)上对全连接网络进行培训,以弥合全连接网络与卷积网络之间的差距。

678

Cycle-Contrast for Self-Supervised Video Representation Learning

们提出了循环对比学习(CCL),这是一种用于学习视频表示的新颖的自我监督方法。

679

Posterior Re-calibration for Imbalanced Datasets

为了应对由于不平衡而导致的测试标签分布的变化,我们从最佳贝叶斯分类器的角度提出了问题,并推导出了可以通过基于KL散度的优化解决的先前的重新平衡技术。

680

Novelty Search in Representational Space for Sample Efficient Exploration

们提出了一种有效的探索新方法,该方法利用对基于模型的目标与无模型目标的结合来学习的环境进行低维编码。

681

Robust Reinforcement Learning via Adversarial training with Langevin Dynamics

利用强大的随机梯度Langevin动力学,我们提出了一种新颖的,可扩展的两人RL算法,它是两人策略梯度方法的一种采样变体。

682

Adversarial Blocking Bandits

们考虑一般的对抗多臂封锁匪徒设置,在该设定中,每个被玩过的手臂可以被封锁一段时间(不可用),并且在每个时间段都以对抗性给予每只手臂奖励,而无需服从任何分配。

683

Online Algorithms for Multi-shop Ski Rental with Machine Learned Advice

特别是,我们考虑了¥emph {多店滑雪租}MSSR问题,它是对经典滑雪租赁问题的概括。

684

Multi-label Contrastive Predictive Coding

为了克服这一局限性,我们引入了一种基于多标签分类问题的新颖估计器,其中批评者需要同时识别¥emph {multiple}阳性样本。

685

Rotation-Invariant Local-to-Global Representation Learning for 3D Point Cloud

们提出了一种用于3D点云数据的局部到全局表示学习算法,该算法适用于处理各种几何变换,尤其是旋转,而无需针对变换进行显式的数据增强。

686

Learning Invariants through Soft Unification

们提出了统一网络,这是一种端到端的可微神经网络方法,能够将示例分解为不变式,并使用这些不变式来解决给定的任务。

687

One Solution is Not All You Need: Few-Shot Extrapolation via Structured MaxEnt RL

这项工作的关键见解是,学习完成任务的各种行为可以直接导致行为泛化到不同的环境,而无需在训练过程中进行明确的干预。

688

Variational Bayesian Monte Carlo with Noisy Likelihoods

这项工作中,我们扩展了VBMC处理嘈杂的对数似然评估,例如那些基于仿真的模型所产生的评估。

689

Finite-Sample Analysis of Contractive Stochastic Approximation Using Smooth Convex Envelopes

在本文中,我们考虑一个涉及针对任意范数的收缩映射的SA,并在使用不同步长的情况下显示其有限样本误差范围。

690

Self-Supervised Generative Adversarial Compression

在本文中,我们表明,使用现有方法无法将标准模型压缩技术,权重修剪和知识蒸馏技术应用于GAN

691

An efficient nonconvex reformulation of stagewise convex optimization problems

们开发了一种非凸的重新设计格式,旨在利用此阶段结构。

692

From Finite to Countable-Armed Bandits

们提出了一种完全自适应的在线学习算法,该算法可在任意次数的n次游戏后实现Olog n)依赖于分布的预期累积后悔,并证明这种后悔的顺序是最好的。

693

Adversarial Distributional Training for Robust Deep Learning

在本文中,我们介绍了对抗式分布训练(ADT),这是一种学习健壮模型的新颖框架。

694

Meta-Learning Stationary Stochastic Process Prediction with Convolutional Neural Processes

在此基础上,我们提出了卷积神经过程(ConvNP),它使神经过程(NP)具有平移等方差,并扩展了卷积条件NP以允许预测分布中具有依赖性。

695

Theory-Inspired Path-Regularized Differential Network Architecture Search

这项工作中,我们通过理论上分析各种类型的操作(例如卷积,跳过连接和归零操作)对网络优化的影响来解决此问题。

696

Conic Descent and its Application to Memory-efficient Optimization over Positive Semidefinite Matrices

们提出了条件梯度方法对可行集为凸锥的问题的扩展。

697

Learning the Geometry of Wave-Based Imaging

们针对基于波的成像问题提出了一种基于物理学的通用深度学习架构。

698

Greedy inference with structure-exploiting lazy maps

们提出了一个框架,用于使用¥emph {structure-exploiting}维输运图或流来解决高维贝叶斯推理问题。

699

Nimble: Lightweight and Parallel GPU Task Scheduling for Deep Learning

为此,我们提出了Nimble这是一种DL执行引擎,它以最小的调度开销并行运行GPU务。

700

Finding the Homology of Decision Boundaries with Active Learning

在本文中,我们提出了一种主动学习算法来恢复决策边界的同源性。

701

Reinforced Molecular Optimization with Neighborhood-Controlled Grammars

这里,我们提出MNCE-RL这是一种卷积策略网络,用于通过强化学习对具有分子邻域控制的嵌入语法的分子进行优化。

702

Natural Policy Gradient Primal-Dual Method for Constrained Markov Decision Processes

具体而言,我们为CMDP提出了一种新的自然政策梯度原始对偶(NPG-PD)方法,该方法通过自然策略梯度上升来更新原始变量,并通过预测的次梯度下降来更新对偶变量。

703

Classification Under Misspecification: Halfspaces, Generalized Linear Models, and Evolvability

在本文中,我们将重新讨论在Massart噪声下速率¥¥eta $的分布独立学习半空间的问题。

704

Certified Defense to Image Transformations via Randomized Smoothing

为了解决这一挑战,我们引入了三种不同的防御措施,每种防御措施都具有不同的保证(启发式,分布性和个体性),这些保证源自用于限制插值误差的方法。

705

Estimation of Skill Distribution from a Tournament

在本文中,我们研究了从锦标赛中成对游戏的观察中学习代理群体的技能分布的问题。

706

Reparameterizing Mirror Descent as Gradient Descent

们提供了一个通用框架,用于将镜像下降更新投射为不同参数集上的梯度下降更新。

707

General Control Functions for Causal Effect Estimation from IVs

为了构造通用控制功能并估计效果,我们开发了通用控制功能方法(GCFN)。

708

Optimal Algorithms for Stochastic Multi-Armed Bandits with Heavy Tailed Rewards

在本文中,我们考虑具有重尾奖励的随机多臂土匪(MAB),其第p阶矩在1 <p <= 2时受常数nu_p限制。

709

Certified Robustness of Graph Convolution Networks for Graph Classification under Topological Attacks

¥emph {图分类}应用中,我们提出了第一个证明GCN对拓扑攻击的鲁棒性的算法。

710

Zero-Resource Knowledge-Grounded Dialogue Generation

为此,我们建议表示一种将上下文和响应联系起来的知识,以及将该知识表示为潜在变量的方式,并设计一种变分方法,该方法可以有效地根据独立对话语料库和知识语料库估算生成模型。

711

Targeted Adversarial Perturbations for Monocular Depth Prediction

们研究了对抗性摄动对单眼深度预测任务的影响。

712

Beyond the Mean-Field: Structured Deep Gaussian Processes Improve the Predictive Uncertainties

们提出了一种新颖的高斯变分族,该族可以保留潜在过程之间的协方差,同时通过边缘化所有全局潜在变量来实现快速收敛。

713

Offline Imitation Learning with a Misspecified Simulator

这项工作中,我们将在一些专家演示和一个动态不正确的模拟器的情况下研究政策学习。

714

Multi-Fidelity Bayesian Optimization via Deep Neural Networks

为了解决这个问题,我们提出了深度神经网络多保真贝叶斯优化(DNN-MFBO),它可以灵活地捕获保真度之间的各种复杂关系,从而改善目标函数估计,从而提高优化性能。

715

PlanGAN: Model-based Planning With Sparse Rewards and Multiple Goals

这项工作中,我们提出了PlanGAN这是一种基于模型的算法,专门设计用于在奖励稀少的环境中解决多目标任务。

716

Bad Global Minima Exist and SGD Can Reach Them

们发现,如果不对¥emph {explicitly}进行正则化,则可以很容易地使SGD敛到泛化性差,复杂性高的模型:要做的只是先对数据进行随机标注,然后再切换到用正确的标签正确训练。

717

Optimal Prediction of the Number of Unseen Species with Multiplicity

们通过将估计极限确定为$ a¥approx¥log n/¥mu $,上下限都匹配常数因子,从而完全解决了这个问题。

718

Characterizing Optimal Mixed Policies: Where to Intervene and What to Observe

在本文中,我们研究了混合策略类别的几种属性,并提供了有效和有效的特征,包括最优性和非冗余性。

719

Factor Graph Neural Networks

们将GNN概括为一个因子图神经网络(FGNN),提供了一种简单的方法来将多个变量之间的依赖关系合并。

720

A Closer Look at Accuracy vs. Robustness

虑到此属性,我们然后证明通过本地Lipschitz函数对于基准数据集都应同时具有鲁棒性和准确性,因此,在鲁棒性和准确性之间不应存在内在的取舍。

721

Curriculum Learning by Dynamic Instance Hardness

过类推,在本文中,我们研究了深度神经网络(DNN)在学习过程中在单个样本上的动态性能。

722

Spin-Weighted Spherical CNNs

在本文中,我们提出了一种新型的球形CNN,它可以高效地进行各向异性过滤,而无需离开球形域。

723

Learning to Execute Programs with Instruction Pointer Attention Graph Neural Networks

们的目标是实现两全其美,我们通过引入一种新颖的GNN体系结构,即指令指针注意图神经网络(IPA-GNN),实现了对学习使用控制执行程序这一任务的改进的系统概括。流程图。

724

AutoPrivacy: Automated Layer-wise Parameter Selection for Secure Neural Network Inference

在本文中,为了快速,准确地进行安全的神经网络推断,我们提出了一种自动的分层参数选择器AutoPrivacy该选择器利用深度强化学习为HPPNN中的每个线性层自动确定一组HE参数。

725

Baxter Permutation Process

本文提出了一种用于百特排列(BP)的贝叶斯非参数(BNP)模型,称BP过程(BPP),并将其应用于关系数据分析。

726

Characterizing emergent representations in a space of candidate learning rules for deep networks

这里,我们介绍了候选学习规则的连续二维空间,该参数由自顶向下的反馈和Hebbian习的级别参数化。

727

Fast, Accurate, and Simple Models for Tabular Data via Augmented Distillation

为了改善AutoML在表格数据上的部署,我们建议使用FAST-DAD将任意复杂的集合预测变量提炼成单个模型,如增强树,随机森林和深层网络。

728

Adaptive Probing Policies for Shortest Path Routing

受流量路由应用程序的启发,我们考虑在边缘长度未知的情况下在图中找到从源$ s $到目$ t $的最短路径的问题。

729

Approximate Heavily-Constrained Learning with Lagrange Multiplier Models

们的建议是将特征向量与每个约束相关联,并学习将每个这样的向量映射到对应的拉格朗日乘数的乘数模型

730

Faster Randomized Infeasible Interior Point Methods for Tall/Wide Linear Programs

在本文中,对于特殊情况,我们考虑使用¥emph {infeasible} IPM,在这种情况下,采用对偶变量的数量远远大于约束的数量(即,宽),反之亦然(即,高)。

731

Sliding Window Algorithms for k-Clustering Problems

这项工作中,我们专注于$ k $聚类问题,例如$ k $ -means$ k $ -median

732

AdaShare: Learning What To Share For Efficient Deep Multi-Task Learning

现有方法不同,我们提出了一种称为AdaShare的自适应共享方法,该方法可在考虑资源效率的同时,决定在哪些任务之间共享什么以实现最佳识别精度。

733

Approximate Cross-Validation for Structured Models

在当前的工作中,我们通过将ACV扩展为CV方案并在折叠之间具有依赖性结构来解决(i)。

734

Exemplar VAE: Linking Generative Models, Nearest Neighbor Retrieval, and Data Augmentation

们介绍了样例VAE这是一种生成模型模型,可弥补基于参数和非参数的,基于样例的生成模型之间的差距。

735

Debiased Contrastive Learning

受此观察结果的启发,我们开发了一种无偏的对比物镜,即使不知道真实的标签,也可以校正相同标签的数据点的采样。

736

UCSG-NET- Unsupervised Discovering of Constructive Solid Geometry Tree

相反,我们提出了一种无需任何监督即可提取CSG解析树的模型-UCSG-Net

737

Generalized Boosting

在本文中,我们特别关注一种聚合形式–¥emph {功能组合}

738

COT-GAN: Generating Sequential Data via Causal Optimal Transport

们介绍了一种对抗性算法COT-GAN,它可以训练为生成顺序数据而优化的隐式生成模型。

739

Impossibility Results for Grammar-Compressed Linear Algebra

在本文中,我们考虑了无损压缩方案,并询问我们是否可以像原始数据那样小而高效地对压缩数据进行计算。

740

Understanding spiking networks through convex optimization

这里,我们扭转这些发现,并表明实际上所有抑制主导的SNN都可以通过凸优化的角度来理解,网络连接,时间尺度和触发阈值与潜在的凸优化问题的参数错综复杂地联系在一起。

741

Better Full-Matrix Regret via Parameter-Free Online Learning

们提供在线凸优化算法,以确保改进的全矩阵后悔界限。

742

Large-Scale Methods for Distributionally Robust Optimization

们提出并分析了具有条件风险值(CVaR)和$¥chi ^ 2 $散度不确定性集的凸损失的分布鲁棒优化算法。

743

Analysis and Design of Thompson Sampling for Stochastic Partial Monitoring

为了缓解这些问题,我们提出了一种新颖的基于汤普森采样的算法,该算法使我们能够从后验分布中准确采样目标参数。

744

Bandit Linear Control

们提出了一种新的高效算法,对于强烈凸和平滑的成本,它获得了随着时间范围T的平方根增长的后悔。

745

Refactoring Policy for Compositional Generalizability using Self-Supervised Object Proposals

们提出了一个分为两个阶段的框架,该框架将高薪教师政策重构为具有强烈归纳偏差的可推广学生政策。

746

PEP: Parameter Ensembling by Perturbation

们引入了一种新方法,即过扰动进行参数合并(PEP该方法将参数值的集合构造为最佳参数集的随机扰动,该扰动来自于高斯对单个方差参数的训练。

747

Theoretical Insights Into Multiclass Classification: A High-dimensional Asymptotic View

在本文中,我们通过提供线性多类分类的第一个渐近精确分析,朝这个方向迈出了一步。

748

Adversarial Example Games

这项工作中,我们为将可转移的对抗性示例适用于整个假设类别提供了理论基础。

749

Residual Distillation: Towards Portable Deep Neural Networks without Shortcuts

特别是,我们提出了一种新颖的联合训练框架,以利用ResNet对应项的梯度来训练普通CNN

750

Provably Efficient Neural Estimation of Structural Equation Models: An Adversarial Approach

们将线性算子方程式表示为最小-最大博弈,其中两个参与者都通过神经网络(NNs)参数化,并使用随机梯度下降学习这些神经网络的参数。

751

Security Analysis of Safe and Seldonian Reinforcement Learning Algorithms

过创建代表最坏情况分析的攻击者模型,我们引入了一种新的安全性度量方法来量化训练数据中的扰动敏感性,并显示出两种Seldonian RL方法对极少数数据损坏都极为敏感。

752

Learning to Play Sequential Games versus Unknown Opponents

当与对手的对抗序列对战时,我们为学习者提出了一种新颖的算法。

753

Further Analysis of Outlier Detection with Deep Generative Models

这项工作中,我们从观察模型的典型集合和高密度区域可能不一致的角度出发,为这种现象提供了可能的解释。

754

Bridging Imagination and Reality for Model-Based Deep Reinforcement Learning

在本文中,我们提出了一种新颖的基于模型的强化学习算法,称为BrIdging现实与梦想(BIRD)。

755

Neural Networks Learning and Memorization with (almost) no Over-Parameterization

在本文中,我们证明了深度2经网络的SGD可以存储样本,学习具有加权的多项式,并学习特定的核空间,其中{¥em近乎最佳}络规模,样本复杂度和运行时间。

756

Exploiting Higher Order Smoothness in Derivative-free Optimization and Continuous Bandits

们解决了强凸函数的零阶优化问题。

757

Towards a Combinatorial Characterization of Bounded-Memory Learning

在本文中,我们的目标是开发表征受限记忆学习的组合维度。

758

Chaos, Extremism and Optimism: Volume Analysis of Learning in Games

们在零和以及协调游戏中执行乘法权重更新(MWU)及其乐观变量(OMWU)的体积分析。

759

On Regret with Multiple Best Arms

们的目标是设计算法,以自动适应问题的未知硬度,即最佳臂数。

760

Matrix Completion with Hierarchical Graph Side Information

们考虑利用社交或项目相似图作为辅助信息的矩阵完成问题。

761

Is Long Horizon RL More Difficult Than Short Horizon RL?

们的分析引入了两个想法:(i为近似最优策略构建一个$¥varepsilon $ -net,其对数覆盖数仅与计划范围成对数比例;(ii)在线轨迹综合算法,该算法可以自适应地评估给定策略类别中的所有策略,并且样本复杂度随给定策略类别的基数对数扩展。

762

Hamiltonian Monte Carlo using an adjoint-differentiated Laplace approximation: Bayesian inference for latent Gaussian models and beyond

为了有效地实施此方案,我们推导了一种新颖的伴随方法,该方法传播构造近似边际似然梯度所需的最小信息。

763

Adversarial Learning for Robust Deep Clustering

在本文中,我们提出了一种基于对抗学习的鲁棒深度聚类方法。

764

Learning Mutational Semantics

们提出了一种基于语言模型的无监督解决方案,该模型可同时学习连续的潜在表示形式。

765

Learning to Learn Variational Semantic Memory

在本文中,我们将变体语义记忆引入元学习中,以获取针对短镜头学习的长期知识。

766

Myersonian Regression

受在线广告中定价应用的推动,我们研究了线性回归的一种变体,该变体具有不连续的损失函数,我们称其为Myersonian归。

767

Learnability with Indirect Supervision Signals

在本文中,当监督由包含带有金标的非零互信息的变量提供监督时,我们将为多类分类开发一个统一的理论框架。

768

Towards Safe Policy Improvement for Non-Stationary MDPs

们迈出了第一步,以高信心确保平稳变化的非平稳决策问题的安全性。

769

Finer Metagenomic Reconstruction via Biodiversity Optimization

这里,我们利用了最近开发的生物多样性概念,该概念同时说明了生物相似性,并保留了基于压缩感知方法的优化策略。

770

Causal Discovery in Physical Systems from Videos

特别是,我们的目标是发现环境和对象变量之间的结构相关性:推断对动力系统的行为有因果关系的相互作用的类型和强度。

771

Glyph: Fast and Accurately Training Deep Neural Networks on Encrypted Data

在本文中,我们提出了基于FHEGlyph术,该技术可通过在TFHE圆环上的快速全同态加密)和BGV码系统之间切换来快速而准确地训练DNN

772

Smoothed Analysis of Online and Differentially Private Learning

在本文中,我们采用了平滑分析的框架[Spielman and Teng2004],在该框架中,对抗性选择的输入受到自然的干扰。

773

Self-Paced Deep Reinforcement Learning

在本文中,我们通过将课程生成解释为一个推理问题来提出答案,其中逐步学习任务的分布以接近目标任务。

774

Kalman Filtering Attention for User Behavior Modeling in CTR Prediction

为了解决这两个限制,我们提出了一种新颖的注意力机制,称为卡尔曼滤波注意力(KFAtt),该机制将注意力中的加权合并视为最大后验(MAP)估计。

775

Towards Maximizing the Representation Gap between In-Domain & Out-of-Distribution Examples

们针对DPN提出了一种新颖的损失函数,以最大程度地提高域内和OOD示例之间的表示差距,从而解决了这一缺陷。

776

Fully Convolutional Mesh Autoencoder using Efficient Spatially Varying Kernels

在本文中,我们针对任意注册的网格数据提出了一种非模板专用的全卷积网格自动编码器。

777

GNNGuard: Defending Graph Neural Networks against Adversarial Attacks

这里,我们开发了GNNGuard这是一种针对各种训练时间攻击的通用防御方法,这些攻击会干扰离散图结构。

778

Geo-PIFu: Geometry and Pixel Aligned Implicit Functions for Single-view Human Reconstruction

们提出了Geo-PIFu,一种从穿着衣服的人的单眼彩色图像中恢复3D网格的方法。

779

Optimal visual search based on a model of target detectability in natural images

们提出了一种新颖的方法,用于根据人类视觉系统的生物学方面,近似估计自然背景下已知目标的偏爱可探测性。

780

Towards Convergence Rate Analysis of Random Forests for Classification

们在纯随机森林的收敛性上提出了第一个有限采样率On ^ {-1 /8d + 2}),可以将其提高到On ^ {-1 /3.87 d + 2}),考虑中点拆分机制。

781

List-Decodable Mean Estimation via Iterative Multi-Filtering

们研究了有界协方差分布的{¥em list-decodable值估计}问题。

782

Exact Recovery of Mangled Clusters with Same-Cluster Queries

们研究了半监督主动集群框架中的集群恢复问题。

783

Steady State Analysis of Episodic Reinforcement Learning

在本文中,我们证明了情景学习任务的学习环境中普遍存在唯一的稳态分布,并且在几乎所有情景任务中,系统状态的边际分布实际上都接近稳态。

784

Direct Feedback Alignment Scales to Modern Deep Learning Tasks and Architectures

这里,我们挑战这种观点,并研究直接反馈对齐(DFA)在神经视图合成,推荐系统,几何学习和自然语言处理中的适用性。

785

Bayesian Optimization for Iterative Learning

在本文中,我们提出了一种贝叶斯优化(BO)方法,该方法利用学习算法的迭代结构来进行有效的超参数调整。

786

Minimax Bounds for Generalized Linear Models

们为广义线性模型建立了一类新的极大极小预测误差范围。

787

Projection Robust Wasserstein Distance and Riemannian Optimization

们在本文中所做的贡献是重新审视了WPP / PRW背后的原始动机,但采取了艰难的途径证明了这一点,尽管它具有不凸性和不光滑性,甚至通过¥citet {Niles-2019在最小极值意义上,可以在实践中使用黎曼优化有效地计算PRW / WPP¥textit {}的原始公式,在相关情况下,其行为比其凸松弛更好。

788

CoinDICE: Off-Policy Confidence Interval Estimation

过将广义经验似然方法应用于所得的拉格朗日方法,我们提出了CoinDICE这是一种用于计算置信区间的新颖高效的算法。

789

Simple and Fast Algorithm for Binary Integer and Online Linear Programming

在本文中,我们开发了一种简单快速的在线算法,用于解决在一般资源分配问题中出现的一类二进制整数线性程序(LP)。

790

Learning Diverse and Discriminative Representations via the Principle of Maximal Coding Rate Reduction

为了从区分最多类别的高维数据中学习固有的低维结构,我们提出了{¥em最大编码率降低}$¥text {MCR} ^ 2 $)的原理,这是一种最大化信息理论的方法整个数据集与每个类别的总和之间的编码率差异。

791

Learning Rich Rankings

这项工作中,我们贡献了上下文重复选择(CRS)模型,该模型利用选择模型的最新进展为排名空间带来自然的多模态和丰富性。

792

Color Visual Illusions: A Statistics-based Computational Model

使用此工具,我们将提供一个支持该方法的模型,并以统一的方式解释亮度和彩色视觉错觉。

793

Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks

们介绍了RAG模型,其中参数内存是预训练的seq2seq模型,非参数内存是Wikipedia的密集矢量索引,可通过预训练的神经检索器进行访问。

794

Universal guarantees for decision tree induction via a higher-order splitting criterion

们建议对{¥sl自上而下的决策树学习启发法}进行简单扩展,例如ID3C4.5CART

795

Trade-offs and Guarantees of Adversarial Representation Learning for Information Obfuscation

鉴于这一差距,我们为属性混淆开发了一种新颖的理论框架。

796

A Boolean Task Algebra for Reinforcement Learning

这项工作中,我们将任务的逻辑组成形式化为布尔代数。

797

Learning with Differentiable Pertubed Optimizers

为了扩大可以以端到端的方式解决的学习问题的范围,我们提出了一种系统的方法,可以将优化程序转换为可微分且永远不会局部不变的运算。

798

Optimal Learning from Verified Training Data

为了解决这个问题,我们提出了最小二乘回归的Stackelberg竞争模型,该模型中的数据由希望为其数据实现特定预测的代理商提供。

799

Online Linear Optimization with Many Hints

们研究了在线线性优化(OLO问题,在此问题中,决策者可以在每个回合中向学习者提供$ K $“提示向量的访问权限。

800

Dynamical mean-field theory for stochastic gradient descent in Gaussian mixture classification

们采用统计物理学中的动态平均场理论,通过一个自洽的随机过程,在高维范围内跟踪算法的动力学。

801

Causal Discovery from Soft Interventions with Unknown Targets: Characterization and Learning

在本文中,当干预目标未知时,我们将从观察和软实验数据的组合中研究非马尔可夫系统中的结构学习任务(即,当潜在变量影响多个可观察值时)。

802

Exploiting the Surrogate Gap in Online Multiclass Classification

们介绍了¥textproc {Gaptron}这是一种用于在线多类分类的随机一阶算法。

803

The Pitfalls of Simplicity Bias in Neural Networks

们试图通过引入分段线性和基于图像的数据集来调和SB和神经网络的高级标准泛化与实践中观察到的非健壮性,其中(a)包含精确的简单性概念,(b)包含多个预测特征具有不同程度的简单性,并且(c)捕获了基于实际数据训练的神经网络的非鲁棒性。

804

Automatically Learning Compact Quality-aware Surrogates for Optimization Problems

为了解决这些缺点,我们通过用元变量表示可行空间来学习大型优化问题的低维替代模型,每个元变量都是原始变量的线性组合。

805

Empirical Likelihood for Contextual Bandits

们提出了一个估计器和置信区间,用于根据上下文强盗设置中的非政策数据计算政策的价值。

806

Can Q-Learning with Graph Networks Learn a Generalizable Branching Heuristic for a SAT Solver?

们提出了Graph-Q-SAT这是布尔SAT求解器的分支启发式算法,它使用图神经网络进行函数逼近,使用基于值的强化学习(RL进行训练。

807

Non-reversible Gaussian processes for identifying latent dynamical structure in neural data

因此,我们引入了GPFADS(具有动态结构的高斯过程因子分析),该模型使用低维,不可逆的潜在过程对单次试验神经种群活动进行建模。

808

Listening to Sounds of Silence for Speech Denoising

们引入了用于语音去噪的深度学习模型,这是在众多应用中引起的音频分析领域的长期挑战。

809

BoxE: A Box Embedding Model for Knowledge Base Completion

这里,我们提出了一个称为BoxE时空转换嵌入模型,该模型同时解决了所有这些限制。

810

Coherent Hierarchical Multi-Label Classification Networks

在本文中,我们提出了一种用于解决HMC问题的新方法C-HMCNNh),该方法给定了基础h的多标签分类问题的网络h,它利用层次结构信息来产生与约束相一致的预测并改进性能。

811

Walsh-Hadamard Variational Inference for Bayesian Deep Learning

受到有关内核方法,特别是随机矩阵分布的结构近似的文献的启发,本文提出了Walsh-Hadamard变分推论(WHVI),该方法使用基于Walsh-Hadamard的因式分解策略来减少参数化并加速计算,从而避免了过度变目标的正规化问题。

812

Federated Bayesian Optimization via Thompson Sampling

本文介绍了联邦Thompson样(FTS),该抽样原则上克服了FBOFL许多关键挑战:我们(a)使用随机傅立叶特征来近似BO中使用的高斯过程替代模型,该模型自然产生以下参数: b)基于Thompson样设计FTS这大大减少了要交换的参数数量,并且(c)提供了对异构代理具有鲁棒性的理论收敛保证,这在FLFBO

813

MultiON: Benchmarking Semantic Map Memory using Multi-Object Navigation

们提出了multiON务,该任务需要在现实环境中导航到特定于情节的对象序列。

814

Neural Complexity Measures

们提出了神经复杂性(NC),一种用于预测泛化的元学习框架。

815

Optimal Iterative Sketching Methods with the Subsampled Randomized Hadamard Transform

们的技术贡献包括用于投影矩阵逆的第二矩的新颖公式。

816

Provably adaptive reinforcement learning in metric spaces

们对SinclairBanerjeeYu2019)的算法进行了精细分析,并显示其遗憾程度随实例的缩放比例而变。

817

ShapeFlow: Learnable Deformation Flows Among 3D Shapes

们提出ShapeFlow这是一个基于流的模型,用于学习具有较大的类内变化的整个3D形状类别的变形空间。

818

Self-Supervised Learning by Cross-Modal Audio-Video Clustering

基于这种直觉,我们提出了跨模态深度聚类(XDC),这是一种新颖的自我监督方法,该方法利用一种模式(例如音频)中的无监督聚类作为另一种模式(例如视频)的监督信号。

819

Optimal Query Complexity of Secure Stochastic Convex Optimization

们研究¥emph {secure}随机凸优化问题:一个学习者旨在通过顺序查询(随机)梯度oracle来学习凸函数的最优点,与此同时,有一个旨在自由骑乘和通过观察学习者的查询来推断学习者的学习结果。

820

DynaBERT: Dynamic BERT with Adaptive Width and Depth

在本文中,我们提出了一种新颖的动态BERT模型(缩写为DynaBERT),该模型可以通过选择自适应宽度和深度来灵活地调整大小和延迟。

821

Generalization Bound of Gradient Descent for Non-Convex Metric Learning

在本文中,我们从理论上解决了这个问题,并证明了通过梯度下降(GD优化的具有非凸目标函数的度量学习算法的不可知近似正确(PAC)学习能力;特别地,我们的理论保证考虑了迭代次数。

822

Dynamic Submodular Maximization

在本文中,我们提出了第一个针对此问题的动态算法。

823

Inference for Batched Bandits

这项工作中,我们开发了使用强盗算法推断批量收集的数据的方法。

824

Approximate Cross-Validation with Low-Rank Data in High Dimensions

以此观察为指导,我们开发了一种新的ACV算法,该算法在ALR数据存在的情况下快速而准确。

825

GANSpace: Discovering Interpretable GAN Controls

本文介绍了一种简单的技术,用于分析生成对抗网络(GAN)并创建用于图像合成的可解释控件,例如视点变化,老化,光照和一天中的时间。

826

Differentiable Expected Hypervolume Improvement for Parallel Multi-Objective Bayesian Optimization

们推导了q预期超量改进(qEHVI)的新公式,qEHVI是将EHVI扩展到并行,受约束的评估设置的获取函数。

827

Neuron-level Structured Pruning using Polarization Regularizer

为了实现这个目标,我们提出了一种新的缩放因子正则化器,即极化正则化器。

828

Limits on Testing Structural Changes in Ising Models

们提出了有关在Isingmodels检测稀疏变化的新型信息理论限制,该问题在许多由于某些外部刺激而可能发生网络变化的应用中都会出现。

829

Field-wise Learning for Multi-field Categorical Data

们提出了一种用于学习多字段分类数据的新方法。

830

Continual Learning in Low-rank Orthogonal Subspaces

们建议在不同(低秩)向量子空间中学习彼此保持正交的任务,以最大程度地减少干扰。

831

Unsupervised Learning of Visual Features by Contrasting Cluster Assignments

在本文中,我们提出了一种在线算法SwAV该算法利用对比方法的优势,而无需计算成对比较。

832

Sharpened Generalization Bounds based on Conditional Mutual Information and an Application to Noisy, Iterative Algorithms

这项工作中,我们研究了SteinkeZakynthinou2020)提出的建议,通过引入一个包含训练样本作为随机子集的超级样本并计算以超级样本为条件的互信息来推理学习算法的泛化误差。

833

Learning Deformable Tetrahedral Meshes for 3D Reconstruction

们引入了¥emph {变形四面体网格}DefTet)作为使用体积四面体网格解决重建问题的特殊参数化。

834

Information theoretic limits of learning a sparse rule

们考虑在信号和可访问数据点的非零分量数量相对于信号大小而言为次线性的情况下的广义线性模型。

835

Self-supervised learning through the eyes of a child

在本文中,我们的目标正是通过利用现代自我监督的深度学习方法以及最近从三个幼儿的角度记录的纵向,以自我为中心的视频数据集来实现这样的进步(Sullivan等,2020)。

836

Unsupervised Semantic Aggregation and Deformable Template Matching for Semi-Supervised Learning

在本文中,我们将两者结合起来,为SSL提出了一种无监督的语义聚合和可变形模板匹配(USADTM)框架,该框架力图通过较少的标记数据来提高分类性能,然后降低数据注释的成本。

837

A game-theoretic analysis of networked system control for common-pool resource management using multi-agent reinforcement learning

但是,我们关注的不是集中在生物进化的类人代理上,而是更好地了解包含通用增强型学习代理的工程化网络系统的学习和操作行为,这些系统仅受诸如内存,计算和通信带宽之类的非生物约束。

838

What shapes feature representations? Exploring datasets, architectures, and training

们使用可直接控制输入要素任务相关性的综合数据集研究这些问题。

839

Optimal Best-arm Identification in Linear Bandits

们研究了随机线性强盗中具有固定置信度的最佳手臂识别问题。

840

Data Diversification: A Simple Strategy For Neural Machine Translation

们介绍了数据多样化:一种简单但有效的策略,可以提高神经机器翻译(NMT)的性能。

841

Interstellar: Searching Recurrent Architecture for Knowledge Graph Embedding

这项工作中,基于由三连串序列组成的关系路径,我们将星际定义为沿路径的短期和长期信息的递归神经体系结构搜索问题。

842

CoSE: Compositional Stroke Embeddings

们提出了基于笔划的绘图任务的生成模型,该模型能够对复杂的自由形式结构进行建模。

843

Learning Multi-Agent Coordination for Enhancing Target Coverage in Directional Sensor Networks

为实现这一目标,我们提出了一种面向目标的分层多代理协调(HiT-MAC),它将目标覆盖问题分解为两级任务:协调员分配目标和执行者跟踪分配的目标。

844

Biological credit assignment through dynamic inversion of feedforward networks

总体而言,我们的工作为大脑中的学分分配引入了另一种观点,并提出了学习过程中时间动态和反馈控制的特殊作用。

845

Discriminative Sounding Objects Localization via Self-supervised Audiovisual Matching

在本文中,我们提出了一个两阶段的学习框架来执行自我监督的类感知探测对象定位。

846

Learning Multi-Agent Communication through Structured Attentive Reasoning

过开发针对通信的显式架构,我们的工作旨在通过学习交流,为克服多主体合作中的重要挑战开辟新的方向。

847

Private Identity Testing for High-Dimensional Distributions

这项工作中,我们提出了针对自然和广泛研究的多元产品分布类别的新颖的差分私人身份(拟合优度)测试器:R ^ d中的高斯分布具有已知的协方差和{¥pm 1} ^ d以上的产品分布。

848

On the Optimal Weighted $\ell_2$ Regularization in Overparameterized Linear Regression

们认为线性模型$¥vy =¥vX¥vbeta_ {¥star} +¥vepsilon $$ mathbb {R} ^ {n¥times}中的¥¥vX¥过参数化的体制$ p> n $中。

849

An Efficient Asynchronous Method for Integrating Evolutionary and Gradient-based Policy Search

在本文中,我们介绍了一种异步进化策略-强化学习(AES-RL),该算法可最大化ES的并行效率,并将其与策略梯度方法集成。

850

MetaSDF: Meta-Learning Signed Distance Functions

这里,我们将形状空间的学习形式化为元学习问题,并利用基于梯度的元学习算法来解决此任务。

851

Simple and Scalable Sparse k-means Clustering via Feature Ranking

在本文中,我们提出了一种新颖的稀疏k值聚类框架,该框架直观,易于实现并且与最新算法竞争。

852

Model-based Adversarial Meta-Reinforcement Learning

们提出了一个极小极大目标,并通过在学习固定任务的动力学模型与找到当前模型的¥textit {adversarial}务之间进行交替来优化该目标,该任务是该模型所诱导的策略最大程度次优的任务。

853

Graph Policy Network for Transferable Active Learning on Graphs

在本文中,我们研究了GNN的主动学习,即如何有效地标记图上的节点以减少训练GNN的注释成本。

854

Towards a Better Global Loss Landscape of GANs

这项工作中,我们对GAN经验损失进行了全局分析。

855

Weighted QMIX: Expanding Monotonic Value Function Factorisation for Deep Multi-Agent Reinforcement Learning

们提出了两种加权方案,并证明它们可以针对任何联合作用$ Q $值恢复正确的最大作用,因此对于$ Q ^ * $也是如此。

856

BanditPAM: Almost Linear Time k-Medoids Clustering via Multi-Armed Bandits

们提出BanditPAM这是一种受多臂匪徒技术启发的随机算法,它在数据假设的基础上,将每次PAM迭代的复杂度从On ^ 2)降低到Onlogn),并以高概率返回相同结果。在实践中经常会出现。

857

UDH: Universal Deep Hiding for Steganography, Watermarking, and Light Field Messaging

充分利用其 emph {universal}”的性质,我们建议使用通用水印作为一种及时的解决方案,以解决图像/视频数量呈指数增长的担忧。

858

Evidential Sparsification of Multimodal Latent Spaces in Conditional Variational Autoencoders

们考虑在保留其学习的多模态的同时,稀疏训练有条件的条件变分自动编码器的离散潜在空间的问题。

859

An Unbiased Risk Estimator for Learning with Augmented Classes

在本文中,我们表明,通过使用无标签的训练数据来近似增强类的潜在分布,可以在温和的假设下为LAC问题建立测试分布的无偏风险估计量,这为开发合理的方法铺平了道路理论上的保证。

860

AutoBSS: An Efficient Algorithm for Block Stacking Style Search

所提出的方法AutoBSS是一种基于贝叶斯优化的新颖AutoML算法,该算法是通过反复细化和聚类块堆叠样式代码(BSSC进行聚类的,它可以在少数试验中找到最佳的BSS,而不会产生偏差评估。

861

Pushing the Limits of Narrow Precision Inferencing at Cloud Scale with Microsoft Floating Point

在本文中,我们探讨了Microsoft浮点(MSFP)的局限性,MSFP为在定制硬件上进行生产云规模推断而开发的一类新的数据类型。

862

Stochastic Optimization with Laggard Data Pipelines

们提供了对常见优化方法的数据回扩展的首次收敛分析,表明它们与同步同步方法相比具有可证明的改进。

863

Self-supervised Auxiliary Learning with Meta-paths for Heterogeneous Graphs

在本文中,为了学习异构图上的图神经网络,我们提出了一种新的使用元路径的自监督辅助学习方法,该元路径是多种边类型的复合关系。

864

GPS-Net: Graph-based Photometric Stereo Network

在本文中,我们提出了一个基于图的光度立体网络,该网络统一了每个像素和所有像素的处理,以探索图像间和图像内信息。

865

Consistent Structural Relation Learning for Zero-Shot Segmentation

这项工作中,我们提出了一种一致的结构关系学习(CSRL)方法,以通过利用可见和不可见类别之间的结构关系来约束看不见的视觉特征的生成。

866

Model Selection in Contextual Stochastic Bandit Problems

们研究随机环境中的强盗模型选择。

867

Truncated Linear Regression in High Dimensions

为了同时处理截断和高维,我们开发了新技术,这些技术不仅可以概括现有技术,而且我们认为它们具有独立的利益。

868

Incorporating Pragmatic Reasoning Communication into Emergent Language

鉴于他们的组合已经在语言学中进行了探索,因此在本文中,我们将基于短期相互推理的语用学的计算模型与长期语言出现主义相结合。

869

Deep Subspace Clustering with Data Augmentation

们提出一种技术来利用DSC算法中数据增强的好处。

870

An Empirical Process Approach to the Union Bound: Practical Algorithms for Combinatorial and Linear Bandits

针对固定置信度和固定预算情况下的纯探索线性强盗问题,本文提出了一种近最优算法。

871

Can Graph Neural Networks Count Substructures?

受此启发,我们建议通过图神经网络对归因图子结构进行计数的能力来研究图神经网络的表达能力,并扩展最近的工作,以检验它们在图同构测试和函数逼近中的作用。

872

A Bayesian Perspective on Training Speed and Model Selection

们以贝叶斯的观点来说明线性模型中训练速度和边际可能性之间的联系。

873

On the Modularity of Hypernetworks

在本文中,我们将模块化的属性定义为有效学习每个输入实例$ I $的不同函数的能力。

874

Doubly Robust Off-Policy Value and Gradient Estimation for Deterministic Policies

为了规避此问题,我们提出了几种基于不同核化方法的新的双稳健估计器。

875

Provably Efficient Neural GTD for Off-Policy Learning

本文研究了使用神经网络(NN)函数逼近器的梯度时差(GTD)算法,以最大程度地降低均方Bellman误差(MSBE)。

876

Learning Discrete Energy-based Models via Auxiliary-variable Local Exploration

在本文中,我们提出了¥modelshort这是一种用于学习离散结构化数据的有条件和无条件EBM的新算法,其中使用模拟本地搜索的学习型采样器来估计参数梯度。

877

Stable and expressive recurrent vision models

这里,我们开发了一种新的学习算法承包商递归反向传播C-RBP),该算法通过使用递归处理步骤实现恒定的O1)内存复杂性来缓解这些问题。

878

Entropic Optimal Transport between Unbalanced Gaussian Measures has a Closed Form

在本文中,我们建议通过证明两个高斯测度之间的熵正则化最优输运问题采用封闭形式来填补这两种思想在OT中的交集处。

879

BRP-NAS: Prediction-based NAS using GCNs

为了解决这个问题,我们提出了BRP-NAS这是一种有效的基于硬件的NAS,它通过基于图卷积网络(GCN)的准确的性能预测器实现。

880

Deep Shells: Unsupervised Shape Correspondence with Optimal Transport

们针对3D形状对应关系提出了一种新颖的无监督学习方法,该方法将多尺度匹配管道构建到了深度神经网络中。

881

ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse Coding

在本文中,我们将神经体系结构搜索公式化为稀疏编码问题。

882

Rel3D: A Minimally Contrastive Benchmark for Grounding Spatial Relations in 3D

在本文中,我们通过构造Rel3D来填补这一空白:Rel3D是第一个大规模的,带有人类注释的数据集,用于将3D间关系作为基础。

883

Regularizing Black-box Models for Improved Interpretability

们的方法ExpO这些方法的混合,可以在训练时对解释质量进行规范化。

884

Trust the Model When It Is Confident: Masked Model-based Actor-Critic

这项工作中,我们发现更好的模型用法可以带来巨大的不同。

885

Semi-Supervised Neural Architecture Search

在本文中,我们提出了SemiNAS,一种半监督的NAS方法,该方法利用了许多未标记的架构(无需评估,因此几乎没有成本)。

886

Consistency Regularization for Certified Robustness of Smoothed Classifiers

们发现,通过简单地对噪声进行预测一致性调整,可以极大地控制平滑分类器的准确性和经过验证的鲁棒性之间的权衡。

887

Robust Multi-Agent Reinforcement Learning with Model Uncertainty

这项工作中,我们研究具有模型不确定性的多主体强化学习(MARL问题,称为鲁棒MARL

888

SIRI: Spatial Relation Induced Network For Spatial Description Resolution

模仿人类,他们以第一人称视角顺序遍历空间关系词和对象以定位其目标,我们提出了一种新颖的空间关系诱导(SIRI)网络。

889

Adaptive Shrinkage Estimation for Streaming Graphs

这项工作中,我们考虑了使用自适应采样来估计高阶相关性的基本问题。

890

Make One-Shot Video Object Segmentation Efficient Again

为了减轻以前的微调方法的效率,我们提出了有效的一键式视频对象分割(e-OSVOS)。

891

Depth Uncertainty in Neural Networks

现有的用于估计深度学习不确定性的方法往往需要多次前向通过,从而使其不适用于计算资源有限的应用。为了解决这个问题,我们在神经网络的深度上执行概率推理。

892

Non-Euclidean Universal Approximation

们提供了描述特征图和读出图的一般条件,这些条件和特征图保留了体系结构在紧凑结构上统一逼近任何连续函数的能力。

893

Constraining Variational Inference with Geometric Jensen-Shannon Divergence

们基于{¥em偏斜几何Jensen-Shannon散度} $¥left¥textrm {JS} ^ {¥textrm {G} _ {¥alpha}}¥right$绍一种正则化机制。

894

Gibbs Sampling with People

们从效用理论的角度阐述了这两种方法,并表明该新方法可以解释为用人的吉布斯抽GSP)。

895

HM-ANN: Efficient Billion-Point Nearest Neighbor Search on Heterogeneous Memory

这项工作中,我们提出了一种新颖的基于图形的相似度搜索算法,称为HM-ANN该算法同时考虑了内存和数据的异构性,并且可以在不使用压缩的情况下在单个节点上进行十亿规模的相似度搜索。

896

FrugalML: How to use ML Prediction APIs more accurately and cheaply

们通过提出FrugalML(一种有原则的框架,可以共同了解不同数据上每个API优缺点),并进行有效的优化以自动识别最佳顺序策略,以自适应地使用AAPI中的可用API应对这一挑战的第一步。预算约束。

897

Sharp Representation Theorems for ReLU Networks with Precise Dependence on Depth

对于本文定义的一类函数G_D,我们证明了在正方形损失下具有D ReLU层的神经网络的无量纲表示结果。

898

Shared Experience Actor-Critic for Multi-Agent Reinforcement Learning

们建议通过在代理商之间共享经验来进行有效勘探的通用方法。

899

Monotone operator equilibrium networks

在本文中,我们基于单调算子理论开发了一种新的隐式深度模型,即单调算子平衡网络(monDEQ)。

900

When and How to Lift the Lockdown? Global COVID-19 Scenario Analysis and Policy Assessment using Compartmental Gaussian Processes

为此,本文开发了一种贝叶斯模型,用于预测全球范围内COVID-19遏制政策的效果-们将每个国家/地区视为一个单独的数据点,并利用各国之间的政策差异来学习特定国家/地区的政策效果。

901

Unsupervised Learning of Lagrangian Dynamics from Images for Prediction and Control

们引入了一种新的无监督神经网络模型,该模型从图像中学习拉格朗日动力学,其可解释性有利于预测和控制。

902

High-Dimensional Sparse Linear Bandits

们推导了一种新颖的On ^ {2/3})无维数极小极大值,遗憾的是在数据贫乏的情况下稀疏线性强盗的下界,在数据贫乏的情况下,视界大于环境维度,并且特征向量允许条件良好勘探分布。

903

Non-Stochastic Control with Bandit Feedback

为了克服这个问题,我们提出了一种有效的算法,用于带记忆的损失函数的匪凸优化的一般设置,这可能是独立引起的。

904

Generalized Leverage Score Sampling for Neural Networks

这项工作中,我们将[AvronKapralovMuscoMuscoVellingkerZandieh 17]中的结果推广到更广泛的内核。

905

An Optimal Elimination Algorithm for Learning a Best Arm

在本文中,我们为$¥epsilon¥delta$-¥texttt {PAC}习最佳手臂提出了一种新方法。

906

Efficient Projection-free Algorithms for Saddle Point Problems

在本文中,我们研究了具有复杂约束的凸-强凹鞍点问题的无投影算法。

907

A mathematical model for automatic differentiation in machine learning

这项工作中,我们阐明了在实践中实施的程序的差异与非平稳功能的差异之间的关系。

908

Unsupervised Text Generation by Learning from Search

这项工作中,我们提出了TGLS这是一种通过从搜索中学习来生成无监督文本的新颖框架。

909

Learning Compositional Rules via Neural Program Synthesis

这项工作中,我们提出了一种神经符号模型,该模型从一小组示例中学习整个规则系统。

910

Incorporating BERT into Parallel Sequence Decoding with Adapters

在本文中,我们建议通过分别采用两种不同的BERT模型作为编码器和解码器来解决此问题,并通过引入简单轻巧的适配器模块对其进行微调,该适配器模块插入BERT层之间并在特定于任务的数据集上进行调整。

911

Estimating Fluctuations in Neural Representations of Uncertain Environments

在本文中,我们开发了一个新的状态空间建模框架来解决与重新映射有关的两个重要问题。

912

Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for Semantic Segmentation

在本文中,我们研究了开放式复合域自适应(OCDA),它同时处理混合和新颖情况,用于语义分割。

913

SURF: A Simple, Universal, Robust, Fast Distribution Learning Algorithm

们介绍了$¥SURF $这是一种通过分段多项式近似分布的算法。

914

Understanding Approximate Fisher Information for Fast Convergence of Natural Gradient Descent in Wide Neural Networks

这项工作中,我们揭示了在特定条件下,具有近似Fisher信息的NGD可以与精确NGD样快速地收敛到全局最小值。

915

General Transportability of Soft Interventions: Completeness Results

在本文中,我们将可迁移性理论扩展到涵盖这些更复杂的干预类型,这些干预相对于分析的输入和目标分布都被称为软性

916

GAIT-prop: A biologically plausible learning rule derived from backpropagation of error

这里,我们得出反向传播与目标传播的修正形式(GAIT-prop)之间的精确对应关系,其中目标是对前向通行的微扰。

917

Lipschitz Bounds and Provably Robust Training by Laplacian Smoothing

这项工作中,我们提出了一种基于图的学​​习框架来训练具有可证明的鲁棒性的对抗性摄动模型。

918

SCOP: Scientific Control for Reliable Neural Network Pruning

过建立科学的控制机制,提出了一种可靠的神经网络修剪算法。

919

Provably Consistent Partial-Label Learning

在本文中,我们提出了候选标签集的第一代模型,并开发了两种保证可证明是一致的PLL方法,即一种是风险一致的,而另一种是分类符一致的。

920

Robust, Accurate Stochastic Optimization for Variational Inference

基于最新理论,我们提出了一种简单且并行的方法来改进SGD计的变分推理。

921

Discovering conflicting groups in signed networks

在本文中,我们研究了在签名网络中检测$ k $冲突组的问题。

922

Learning Some Popular Gaussian Graphical Models without Condition Number Bounds

这里,我们给出了第一个固定的多项式时间算法,用于在不进行任何此类假设的情况下,以对数数量的样本来学习有吸引力的GGM和步行可加GGM 

923

Sense and Sensitivity Analysis: Simple Post-Hoc Analysis of Bias Due to Unobserved Confounding

本文的目的是开发奥斯丁图,这是一种敏感性分析工具,可通过使人们更容易推断出未观察到的混杂所引起的潜在偏差来帮助进行此类判断。

924

Mix and Match: An Optimistic Tree-Search Approach for Learning Models from Mixture Distributions

们考虑一个协变量转移问题,其中一个人可以访问针对同一学习问题的几个不同的训练数据集和一个很小的验证集,该验证集可能不同于所有单独的训练分布。

925

Understanding Double Descent Requires A Fine-Grained Bias-Variance Decomposition

为了进行细粒度分析,我们将方差的可解释性,对称分解描述为与来自采样,初始化和标签的随机性相关的术语。

926

VIME: Extending the Success of Self- and Semi-supervised Learning to Tabular Domain

在本文中,我们通过为表格数据提出新颖的自我监督和半监督学习框架来填补这一空白,我们将这些框架统称为VIME值插补和掩码估计)。

927

The Smoothed Possibility of Social Choice

们开发了一个框架,该框架利用SpielmanTeng进行的平滑复杂性分析来规避社会选择中的悖论和不可能定理,这是由AIML支持的现代社会选择应用所激发的。

928

A Decentralized Parallel Algorithm for Training Generative Adversarial Nets

在本文中,我们通过设计¥textbf {第一个基于梯度的分散并行算法}来解决此难题,该算法允许工作人员在一次迭代中进行多轮通信,并同时更新鉴别器和生成器,这种设计使其适用于提出的分散算法的收敛性分析。

929

Phase retrieval in high dimensions: Statistical and computational phase transitions

们考虑从$ m $(可能有噪声)观测值重构$ n $维实数或复数信号$¥mathbf {X} ^¥star $的相位检索问题。¥sum_ {i = 1} ^ n¥Phi_ {¥mu i} X ^ {¥star} _i /¥sqrt {n} | $,用于一类相关的实数和复数相关的随机传感矩阵$¥mathbf {¥Phi } $,在高维设置中,其中$ m¥infty $,而$¥alpha = m / n =¥Theta1$

930

Fair Performance Metric Elicitation

具体来说,我们提出了一种新颖的策略来针对具有多个敏感群体的多类别分类问题得出群体公平绩效指标,其中还包括选择预测绩效与公平违规之间的权衡。

931

Hybrid Variance-Reduced SGD Algorithms For Minimax Problems with Nonconvex-Linear Function

们开发了一种新颖的单环减少方差的算法来解决一类涉及非凸线性目标函数的随机非凸-凸极小极大问题,该问题在机器学习和鲁棒性优化等不同领域具有多种应用。

932

Belief-Dependent Macro-Action Discovery in POMDPs using the Value of Information

这里,我们提出了一种直接从低级POMDP模型中提取依赖于信念的可变长度宏动作的方法。

933

Soft Contrastive Learning for Visual Localization

在本文中,我们说明了为什么这样的划分对于学习本地化功能会造成问题。

934

Fine-Grained Dynamic Head for Object Detection

为此,我们提出了一种细粒度的动态头,可以针对每种情况从不同的比例有条件地选择FPN特征的像素级组合,从而进一步释放了多比例特征表示的能力。

935

LoCo: Local Contrastive Representation Learning

这项工作中,我们发现通过重叠堆叠在一起的局部块,我们有效地增加了解码器的深度,并允许较高的块隐式发送反馈到较低的块。

936

Modeling and Optimization Trade-off in Meta-learning

们介绍并严格定义了元学习中准确建模与优化便捷之间的权衡。

937

SnapBoost: A Heterogeneous Boosting Machine

这项工作中,我们研究了异质牛顿升压机(HNBM),其中基本假设类别在整个升压迭代中可能会有所不同。

938

On Adaptive Distance Estimation

们为距离估算提供了一个静态数据结构,该结构支持{¥it自适}查询。

939

Stage-wise Conservative Linear Bandits

针对这个问题,我们提出了两种新颖的算法,即阶段保守线性汤普森抽样(SCLTS)和阶段保守线性线性UCBSCLUCB),它们尊重基线约束并享受$¥mathcal {O}()的概率后悔界限。 ¥sqrt {T}¥log ^ {3/2} T$$¥mathcal {O}¥sqrt {T}¥log T$

940

RELATE: Physically Plausible Multi-Object Scene Synthesis Using Structured Latent Spaces

们介绍了RELATE该模型可学习生成物理上合理的场景和多个交互对象的视频。

941

Metric-Free Individual Fairness in Online Learning

们研究一个受个体公平约束的在线学习问题,这要求对相似的个体进行相似的对待。

942

GreedyFool: Distortion-Aware Sparse Adversarial Attack

在本文中,我们提出了一种新的基于两阶段失真感知贪婪的方法,称为贪婪的傻瓜

943

VAEM: a Deep Generative Model for Heterogeneous Mixed Type Data

们提出了一种扩展的可变自动编码器(VAE),称VAEM,用于处理此类异构数据。

944

RetroXpert: Decompose Retrosynthesis Prediction Like A Chemist

在本文中,我们设计了一种新颖的无需模板的自动逆向合成扩展算法,其灵感来自化学家如何进行逆向合成预测。

945

Sample-Efficient Optimization in the Latent Space of Deep Generative Models via Weighted Retraining

们介绍了一种有效的黑匣子优化的改进方法,该方法在由深度生成模型学习的低维连续潜流形中执行优化。

946

Improved Sample Complexity for Incremental Autonomous Exploration in MDPs

在本文中,我们介绍了一种新颖的基于模型的方法,该方法可交错地从$ s_0 $发现新状态并提高用于计算目标条件策略的模型估计的准确性。

947

TinyTL: Reduce Memory, Not Parameters for Efficient On-Device Learning

这项工作中,我们介绍了Tiny-Transfer-LearningTinyTL),以实现内存高效的设备内学习。

948

RD$^2$: Reward Decomposition with Representation Decomposition

这项工作中,我们通过约束与不同子奖励相关的不同状态特征/表示的唯一性和紧凑性,提出了一套新颖的奖励分解原理。

949

Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID

为了解决这些问题,我们提出了一种具有混合记忆的新型自定进度的对比学习框架。

950

Fairness constraints can help exact inference in structured prediction

们发现,与公平性和模型性能之间的已知折衷相比,公平性约束的添加提高了精确恢复的可能性。

951

Instance-based Generalization in Reinforcement Learning

们建议在一组专用策略上训练一个共享的信念表示,然后从中计算出一个用于数据收集的共识策略,不允许使用特定于实例的方法。

952

Smooth And Consistent Probabilistic Regression Trees

们在这里提出一种回归树的广义化,称为概率回归(PR树,它适应于与输入和输出变量有关的预测函数的平滑性,同时保留了预测的可解释性并且对噪声具有鲁棒性。

953

Computing Valid p-value for Optimal Changepoint by Selective Inference using Dynamic Programming

在本文中,我们介绍了一种新颖的方法,可以通过基于动态编程(DP)的最佳CP检测算法对CP的重要性进行统计推断。

954

Factorized Neural Processes for Neural Processes: K-Shot Prediction of Neural Responses

们通过将问题表示为$ K $ -shot预测来克服此限制,该预测可以使用神经过程从一小组刺激响应对中直接推断出神经元的调节功能。

955

Winning the Lottery with Continuous Sparsification

们重新审视了修剪算法的基本方面,指出了先前方法中缺少的成分,并开发了一种连续稀疏化方法,该方法基于难以解决的10则化的新颖近似来搜索稀疏网络。

956

Adversarial robustness via robust low rank representations

这项工作中,我们强调了自然低秩表示的好处,这种低阶表示经常存在于真实数据(例如图像)中,用于训练具有经过认证的鲁棒性保证的神经网络。

957

Joints in Random Forests

在本文中,我们证明了DTRF可以自然地解释为生成模型,方法是与概率电路(一种可处理的概率模型的显着类)建立联系。

958

Compositional Generalization by Learning Analytical Expressions

受到认知工作的启发,该工作认为合成可以被具有符号功能的可变槽捕获,我们提出了一种新颖的视图,将记忆增强的神经模型与解析表达式相连接,以实现合成概括。

959

JAX MD: A Framework for Differentiable Physics

们介绍了JAX MD这是一个用于执行可微分的物理模拟的软件包,重点关注分子动力学。

960

An implicit function learning approach for parametric modal regression

这项工作中,我们提出了一种参数模态回归算法。

961

SDF-SRN: Learning Signed Distance 3D Object Reconstruction from Static Images

在本文中,我们解决了这个问题,并提出了SDF-SRN这种方法在训练时只需要单个对象视图,就可以为实际场景提供更大的实用性。

962

Coresets for Robust Training of Deep Neural Networks against Noisy Labels

为了解决这一挑战,我们提出了一种具有强大理论保证的新颖方法,可以对带有噪声标签的神经网络进行健壮的训练。

963

Adapting to Misspecification in Contextual Bandits

们引入了针对$¥varepsilon $-错误指定的上下文强盗的新的Oracle高效算法家族,这些强盗适应于未知的模型错误指定-包括有限动作设置和无限动作设置。

964

Convergence of Meta-Learning with Task-Specific Adaptation over Partial Parameters

在本文中,我们描述了两种典型的内环损耗几何(即强凸性和非凸性)下ANIL的收敛速度和计算复杂度。

965

MetaPerturb: Transferable Regularizer for Heterogeneous Tasks and Architectures

为了弥合两者之间的鸿沟,我们提出了一种可转移的扰动MetaPerturb该元扰动是元学习的,可以提高对看不见的数据的泛化性能。

966

Learning to solve TV regularised problems with unrolled algorithms

在本文中,我们通过展开近端梯度下降求解器来加速此类迭代算法,以了解其在一维TV则化问题中的参数。

967

Object-Centric Learning with Slot Attention

在本文中,我们介绍了Slot Attention块,这是一个架构组件,可与诸如卷积神经网络的输出之类的感知表示对接,并生成一组称为任务的依赖于任务的抽象表示。

968

Improving robustness against common corruptions by covariate shift adaptation

键的见解是,在许多情况下,都可以使用多个未标记的损坏示例,这些示例可用于无监督的在线适应。

969

Deep Smoothing of the Implied Volatility Surface

们提出了一种神经网络(NN)方法来拟合和预测隐含波动率表面(IVS)。

970

Probabilistic Inference with Algebraic Constraints: Theoretical Limits and Practical Approximations

这项工作中,我们在理论和算法方面都改进了WMI框架。

971

Provable Online CP/PARAFAC Decomposition of a Structured Tensor via Dictionary Learning

们考虑将结构化三向张量分解成其组成的规范多联(CP)因子的问题。

972

Look-ahead Meta Learning for Continual Learning

这项工作中,我们提出了超前MAMLLa-MAML),这是一种基于快速优化的元学习算法,用于在线持续学习,并有少量的情节记忆。

973

A polynomial-time algorithm for learning nonparametric causal graphs

们为用于从数据中学习非线性,非参数有向无环图(DAG)模型的多项式时间算法建立有限样本保证。

974

Sparse Learning with CART

本文旨在研究用CART构建的回归树的统计特性。

975

Proximal Mapping for Deep Regularization

与通过模型权重间接优化它们的流行方法相反,我们建议将近端映射作为新层插入到深层网络中,从而直接和显式地产生规则化的隐藏层输出。

976

Identifying Causal-Effect Inference Failure with Uncertainty-Aware Models

们介绍了一种实用的方法,用于将不确定性估计集成到用于个体级因果估计的一类最新的神经网络方法中。

977

Hierarchical Granularity Transfer Learning

在本文中,我们引入了一个名为层次粒度转移学习HGTL)的新任务,以识别具有基本级别注释和层次结构类别的语义描述的子层次类别。

978

Deep active inference agents using Monte-Carlo methods

在本文中,我们提出了一种神经体系结构,用于使用多种形式的蒙特卡洛(MC)采样来构建在复杂的连续状态空间中运行的深度主动推理代理。

979

Consistent Estimation of Identifiable Nonparametric Mixture Models from Grouped Observations

这项工作提出了一种算法,该算法可以根据分组的观测值一致地估计任何可识别的混合模型。

980

Manifold structure in graph embeddings

但是,本文表明,现有的随机图形模型(包括石墨烯和其他潜在位置模型)可以预测数据应该位于一个低维集附近。

981

Adaptive Learned Bloom Filter (Ada-BF): Efficient Utilization of the Classifier with Application to Real-Time Information Filtering on the Web

们提出了新的算法,可以通过使用分数区域的完整频谱来概括学习的Bloom滤波器。

982

MCUNet: Tiny Deep Learning on IoT Devices

们提出了MCUNet该框架可以共同设计高效的神经体系结构(TinyNAS)和轻量级推理引擎(TinyEngine),从而在微控制器上实现ImageNet规模的推理。

983

In search of robust measures of generalization

着重于概括界限,这项工作解决了如何凭经验评估这些界限的问题。

984

Task-agnostic Exploration in Reinforcement Learning

们提出了一种高效的与任务无关的RL算法¥textsc {UCBZero}该算法在最多代字号O¥logNH ^ 5SA /¥epsilon之后,$ N $个任意任务找到$¥epsilon $个最优策略。 ^ 2$探索情节。

985

Multi-task Additive Models for Robust Estimation and Automatic Structure Discovery

为了解决这个问题,我们提出了一种新的加性模型,称为多任务加性模型(MAM),方法是将模式诱导的度量,基于结构的正则化器和加性假设空间集成到一个双层优化框架中。

986

Provably Efficient Reward-Agnostic Navigation with Linear Value Iteration

们为无奖赏设置提供了一种计算上容易处理的算法,并展示了如何将其用于学习任何(线性)奖赏函数的近乎最优的策略,只有在学习完成后才能揭示该策略。

987

Softmax Deep Double Deterministic Policy Gradients

在本文中,我们建议在连续控制中使用Boltzmann softmax算子进行值函数估计。

988

Online Decision Based Visual Tracking via Reinforcement Learning

与以前的基于融合的方法不同,我们提出了一个名为DTNet的新型集成框架,该框架具有用于基于分层强化学习的视觉跟踪的在线决策机制。

989

Efficient Marginalization of Discrete and Structured Latent Variables via Sparsity

在本文中,我们提出了一种新的训练策略,该策略可以通过精确而有效的边缘化代替这些估计量。

990

DeepI2I: Enabling Deep Hierarchical Image-to-Image Translation by Transferring from GANs

因此,在这项工作中,我们提出了一种新颖的深度分层图像到图像转换方法,称为DeepI2I

991

Distributional Robustness with IPMs and links to Regularization and GANs

们通过研究使用积分概率度量(IPM构造的不确定性集(包括MMD总变异和Wasserstein距离的一大类差异)来通过正则化来理解稳健性,从而扩展了这一工作范围。

992

A shooting formulation of deep learning

为此,我们介绍了一种射击方式,将视角从逐层参数化网络变为仅由一组初始条件描述的最佳网络参数化。

993

CSI: Novelty Detection via Contrastive Learning on Distributionally Shifted Instances

在本文中,我们提出了一种简单而有效的方法,称为对比移位实例(CSI),其灵感来自于可视表示的对比学习的最新成功。

994

Learning Implicit Credit Assignment for Cooperative Multi-Agent Reinforcement Learning

们提出了一种多主体行动者批评方法,旨在隐式解决完全合作设置下的信用分配问题。

995

MATE: Plugging in Model Awareness to Task Embedding for Meta Learning

为了更好地概括,我们提出了一种新颖的任务表示形式,称为模型感知任务嵌入(MATE),它不仅包含不同任务的数据分布,而且还通过所使用的模型包含了任务的复杂性。

996

Restless-UCB, an Efficient and Low-complexity Algorithm for Online Restless Bandits

Restless-UCB中,我们提出了一种构造离线实例的新颖方法,该方法仅需要$ ON$时间复杂度($ N $是臂数),并且比现有学习策略的复杂度好得多。

997

Predictive Information Accelerates Learning in RL

们假设捕获预测信息在RL中是有用的,因为成功完成许多任务必须具备对接下来发生的事情进行建模的能力。

998

Robust and Heavy-Tailed Mean Estimation Made Simple, via Regret Minimization

在本文中,我们提供了一个元问题和一个对偶定理,从而导致人们对高维鲁棒和重尾均值估计有了新的统一看法。

999

High-Fidelity Generative Image Compression

们广泛研究了如何将生成对抗网络与学习的压缩方法结合起来,以获得最先进的生成有损压缩系统。

1000

A Statistical Mechanics Framework for Task-Agnostic Sample Design in Machine Learning

在本文中,我们提供了一个统计力学框架,以了解训练数据的采样属性对机器学习(ML)算法的泛化差距的影响。

1001

Counterexample-Guided Learning of Monotonic Neural Networks

们开发了一个反例指导技术,以在预测时可证明地实施单调性约束。

1002

A Novel Approach for Constrained Optimization in Graphical Models

们提出了用于解决该问题的一类近似算法。

1003

Global Convergence of Deep Networks with One Wide Layer Followed by Pyramidal Topology

在本文中,我们证明了,对于深度网络,输入层之后紧随其后的单个宽度N层足以确保相似的保证。

1004

On the Trade-off between Adversarial and Backdoor Robustness

在本文中,我们进行实验以研究对抗性鲁棒性和后门鲁棒性是否可以相互影响并权衡取舍-过增加网络对对抗性示例的鲁棒性,网络变得更容易受到后门攻击。

1005

Implicit Graph Neural Networks

为了克服这个困难,我们提出了一种称为隐式图神经网络(IGNN)的图学习框架,其中的预测基于包含隐式定义的向量的定点平衡方程的解。

1006

Rethinking Importance Weighting for Deep Learning under Distribution Shift

在本文中,我们对IW进行了重新思考,并从理论上证明了IW具有循环依赖性:我们不仅需要WCWE,而且还需要将训练有素的深度分类器用作特征提取器(FE)的WEWC

1007

Guiding Deep Molecular Optimization with Genetic Exploration

在本文中,我们提出了遗传专家指导学习(GEGL),这是一种简单而新颖的框架,用于训练深度神经网络(DNN)以生成高回报分子。

1008

Temporal Spike Sequence Learning via Backpropagation for Deep Spiking Neural Networks

们提出了一种用于训练深度SNN的新颖的时间尖峰序列学习反向传播(TSSL-BP)方法,该方法可以分解跨神经元间和内部神经元依赖的两种类型的错误反向传播,并可以提高时间学习的精度。

1009

TSPNet: Hierarchical Feature Learning via Temporal Semantic Pyramid for Sign Language Translation

在本文中,我们探索了手语视频的时间语义结构,以了解更多判别特征。

1010

Neural Topographic Factor Analysis for fMRI Data

们提出了神经地形因素分析(NTFA),一种概率因素分析模型,可以推断参与者和刺激的嵌入情况。

1011

Neural Architecture Generator Optimization

这项工作中,我们1)第一个研究铸造NAS为寻找最佳网络生成器的问题,并且2)我们提出了一种新的,基于层次结构和基于图的搜索空间,能够代表多种网络类型,但仅需要很少的连续超参数。

1012

A Bandit Learning Algorithm and Applications to Auction Design

在本文中,我们引入了$¥lambda¥mu$凹函数的新概念,并提出了一种强盗学习算法,该算法实现了性能保证,其特征是凹度参数$¥lambda $的函数亩。

1013

MetaPoison: Practical General-purpose Clean-label Data Poisoning

们提出了MetaPoison这是一种通过元学习近似二阶问题并制作使神经网络蒙骗的有毒物质的一阶方法。

1014

Sample Efficient Reinforcement Learning via Low-Rank Matrix Estimation

为我们的主要贡献,我们开发了一种简单的迭代学习算法,该算法可找到$¥epsilon $优的$ Q $函数,样本复杂度为$¥widetilde {O}¥frac {1} {¥epsilon ^ {¥max d_1d_2+2}}$当最$ Q $函数具有低秩$ r $并且折现因子$¥gamma $低于某个阈值时。

1015

Training Generative Adversarial Networks with Limited Data

们提出了一种自适应鉴别器增强机制,该机制可显着稳定有限数据环境中的训练。

1016

Deeply Learned Spectral Total Variation Decomposition

在本文中,我们提出了一种非线性光谱分解的神经网络近似方法。

1017

FracTrain: Fractionally Squeezing Bit Savings Both Temporally and Spatially for Efficient DNN Training

在本文中,我们从一个正交的方向进行探索:如何从最冗余的位级别中分步地挤出更多的培训成本节省,并沿着训练轨迹逐步地,动态地按输入进行压缩。

1018

Improving Neural Network Training in Low Dimensional Random Bases

们建议在每个步骤重新绘制随机子空间,这将产生明显更好的性能。

1019

Safe Reinforcement Learning via Curriculum Induction

本文提出了一种受人类教学启发的替代方法,其中代理在自动指导员的指导下进行学习,从而避免了代理在学习过程中违反约束。

1020

Leverage the Average: an Analysis of KL Regularization in Reinforcement Learning

们在一个近似值迭代方案中研究KL则化,并表明它隐式平均q值。

1021

How Robust are the Estimated Effects of Nonpharmaceutical Interventions against COVID-19?

为了回答这个问题,我们研究了2个最新的NPI有效性模型,并提出了6个不同的结构假设。

1022

Beyond Individualized Recourse: Interpretable and Interactive Summaries of Actionable Recourses

为此,我们提出了一个新颖的模型不可知论框架,称为可操作追索权摘要(AReS),以构建全局反事实解释,从而为整个人群提供可解释且准确的追索权摘要。

1023

Generalization error in high-dimensional perceptrons: Approaching Bayes error with convex optimization

们考虑对合成数据集进行常规研究的监督分类,该合成数据集的标签是通过向具有随机iid输入的单层非线性神经网络馈送生成的。

1024

Projection Efficient Subgradient Method and Optimal Nonsmooth Frank-Wolfe Method

当可以访问函数的随机(随机)一阶oracleFO)和约束集的投影oraclePO时,我们考虑在凸约束集上优化非光滑Lipschitz连续凸函数的经典设置。

1025

PGM-Explainer: Probabilistic Graphical Model Explanations for Graph Neural Networks

在本文中,我们提出了PGM-Explainer这是一种针对GNN的概率图形模型(PGM)模型不可知的解释器。

1026

Few-Cost Salient Object Detection with Adversarial-Paced Learning

为了解决这个问题,本文提出了仅基于人工注释在一些训练图像上学习有效的显着目标检测模型,从而显着减轻训练模型中的人工。

1027

Minimax Estimation of Conditional Moment Models

们引入了最小-最大标准函数,在该函数下,可以将估计问题视为解决在目标模型的假设空间上进行优化的建模者与识别测试函数中违反时刻的对手之间的零和博弈。空间。

1028

Causal Imitation Learning With Unobserved Confounders

在本文中,我们放宽了这一假设,并在学习者和专家的感官输入不同时研究模仿学习。

1029

Your GAN is Secretly an Energy-based Model and You Should Use Discriminator Driven Latent Sampling

们表明,GAN隐式生成器对数密度$¥log p_g $鉴别器的logit得分的和定义了一个能量函数,当生成器不完善但鉴别器是最优的时,该函数产生了真实的数据密度,因此使得有可能改进典型的生成器(具有隐式密度$ p_g $)。

1030

Learning Black-Box Attackers with Transferable Priors and Query Feedback

过将基于可迁移性和基于查询的黑盒攻击相结合,我们提出了一种使用代理模型的令人惊讶的简单基线方法(名为SimBA ++),该模型明显优于几种最新方法。

1031

Locally Differentially Private (Contextual) Bandits Learning

们在本文中研究本地差分私有(LDP)土匪学习。

1032

Invertible Gaussian Reparameterization: Revisiting the Gumbel-Softmax

们提出了一种模块化且更灵活的可重新配置分布族,其中高斯噪声通过可逆函数转换为单热近似。

1033

Kernel Based Progressive Distillation for Adder Neural Networks

在本文中,我们提出了一种新的方法,可通过基于核的渐进式知识蒸馏(PKKD)方法进一步提高ANN的性能而不会增加可训练的参数。

1034

Adversarial Soft Advantage Fitting: Imitation Learning without Policy Optimization

们建议通过利用新颖的区分器公式消除政策优化步骤的负担。

1035

Agree to Disagree: Adaptive Ensemble Knowledge Distillation in Gradient Space

在本文中,我们研究了梯度空间中教师模型的多样性,并将集成知识提炼作为一个多目标优化问题,以便为学生网络的培训确定更好的优化方向。

1036

The Wasserstein Proximal Gradient Algorithm

这项工作中,我们提出了一种正向后向(FB)离散化方案,该方案可以解决目标函数是平滑和非平滑测地凸项之和的情况。

1037

Universally Quantized Neural Compression

们证明了使用通用量化在测试时也可以实现统一的噪声通道(Ziv1985)。

1038

Temporal Variability in Implicit Online Learning

这项工作中,我们对这种行为进行了仔细的遗憾分析,以阐明这一行为。

1039

Investigating Gender Bias in Language Models Using Causal Mediation Analysis

们提出了一种基于因果中介分析理论的方法,以解释模型的哪些部分与其行为有因果关系。

1040

Off-Policy Imitation Learning from Observations

这项工作中,我们提出了一种样本有效的LfO方法,该方法能够以原则性方式实现政策外优化。

1041

Escaping Saddle-Point Faster under Interpolation-like Conditions

在本文中,我们证明了在过度参数化的情况下,几种标准的随机优化算法可以避开鞍点并更快地收敛到局部极小值。

1042

Mat?rn Gaussian Processes on Riemannian Manifolds

这项工作中,我们提出了一种通过完全构造性的方式,通过Laplace-Beltrami算符的频谱理论,在紧凑的黎曼流形上计算这些过程的核的技术,从而允许它们通过标准可扩展技术(例如归纳点方法)进行训练。

1043

Improved Techniques for Training Score-Based Generative Models

们提供了从高维空间中的分数模型学习和采样的新理论分析,解释了现有的故障模式并激发了适用于整个数据集的新解决方案。

1044

wav2vec 2.0: A Framework for Self-Supervised Learning of Speech Representations

们首次证明,仅从语音音频中学习强大的表示形式,然后对转录语音进行微调,就可以在概念上更简单的情况下胜过最佳的半监督方法。

1045

A Maximum-Entropy Approach to Off-Policy Evaluation in Average-Reward MDPs

在更一般的情况下,当特征动力学近似线性且具有任意奖励时,我们提出了一种使用函数逼近来估计平稳分布的新方法。

1046

Instead of Rewriting Foreign Code for Machine Learning, Automatically Synthesize Fast Gradients

本文介绍了Enzyme这是一种适用于LLVM编译器框架的高性能自动微分(AD编译器插件,能够合成以LLVM间表示(IR)表示的静态可分析程序的梯度。

1047

Does Unsupervised Architecture Representation Learning Help Neural Architecture Search?

这项工作中,我们从经验上发现,仅使用神经体系结构而不使用其准确性作为标签的预训练体系结构表示可以提高下游体系结构的搜索效率。

1048

Value-driven Hindsight Modelling

们开发了介于两个极端之间的RL中表示学习的方法:我们建议学习可以直接帮助价值预测的模型。

1049

Dynamic Regret of Convex and Smooth Functions

具体来说,我们提出了新颖的在线算法,该算法能够利用平滑度,并通过与问题相关的量来代替对动态后悔中对$ T $的依赖:损失函数的梯度变化,比较器序列的累积损失和最小前两个术语中的一个。

1050

On Convergence of Nearest Neighbor Classifiers over Feature Transformations

这导致我们对kNN的理论理解与实际应用之间出现了差距。在本文中,我们迈出了弥合这一差距的第一步。

1051

Mitigating Manipulation in Peer Review via Randomized Reviewer Assignments

然后,我们提出了一种用于审稿人分配的(随机)算法,该算法可以在任何给定的审稿纸对分配概率的任何给定约束下,以最佳方式解决审稿人分配问题。

1052

Contrastive learning of global and local features for medical image segmentation with limited annotations

这项工作中,我们提出了利用对特定领域和针对特定问题的线索,在具有限制注释的半监督环境中扩展用于分割医学图像的对比学习框架的策略。

1053

Self-Supervised Graph Transformer on Large-Scale Molecular Data

为了解决这两个问题,我们提出了一个新颖的框架GROVER该框架代表通过tRformformer的自监督消息的图形表示。

1054

Generative Neurosymbolic Machines

在本文中,我们提出了生成神经符号机器,一种生成模型,该模型结合了分布式表示和符号表示的优点,以支持符号组件的结构化表示和基于密度的生成。

1055

How many samples is a good initial point worth in Low-rank Matrix Recovery?

在本文中,我们量化了初始猜测的质量与数据需求的相应减少之间的关系。

1056

CSER: Communication-efficient SGD with Error Reset

们提出了一种新的SGD变体:¥下划线{C}高效通信的¥下划线{S} GD带有¥下划线{E}¥下划线{R} et¥下划线{CSER}

1057

Efficient estimation of neural tuning during naturalistic behavior

们通过优化广义交叉验证得分并推断出每个特征对神经反应的贡献的边际置信区间,来开发用于参数学习的有效程序。

1058

High-recall causal discovery for autocorrelated time series with latent confounders

们提出了一种新的方法,用于在潜在混杂因素存在的情况下,从观测时间序列中发现基于线性和非线性,滞后和同时期基于约束的因果关系。

1059

Forget About the LiDAR: Self-Supervised Depth Estimators with MED Probability Volumes

们在KITTICityScapesMake3D数据集上展示了广泛的实验结果,以验证我们方法的有效性。

1060

Joint Contrastive Learning with Infinite Possibilities

本文探讨了通过新颖的概率模型对对比学习的最新发展进行有用的修改。

1061

Robust Gaussian Covariance Estimation in Nearly-Matrix Multiplication Time

在本文中,我们演示了一种新颖的算法,该算法可实现相同的统计保证,但是可以按时间运行$¥widetilde {O}TNd¥log¥kappa$

1062

Adversarially-learned Inference via an Ensemble of Discrete Undirected Graphical Models

相反,我们提出了一个与推理无关的对抗训练框架,该框架可生成图形模型(AGM)的无限大集合。

1063

GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially Private Generators

为此,我们建议使用梯度消毒的Wasserstein生成对抗网络(GS-WGAN),该网络可以通过严格的隐私保证来释放敏感数据的消毒形式。

1064

SurVAE Flows: Surjections to Bridge the Gap between VAEs and Flows

在本文中,我们介绍了SurVAE流:可组合转换的模块化框架,其中包含VAE规范化流。

1065

Learning Causal Effects via Weighted Empirical Risk Minimization

在本文中,我们受益于因果识别理论的普遍性以及基于ERM原理产生的估计量的有效性,我们开发了一个包含两个方法系列的学习框架。

1066

Revisiting the Sample Complexity of Sparse Spectrum Approximation of Gaussian Processes

们为高斯过程引入了一种新的可扩展近似,它具有可证明的保证,同时可在其整个参数空间上保持有效。

1067

Incorporating Interpretable Output Constraints in Bayesian Neural Networks

们介绍了一种具有此类约束的新颖概率框架,并制定了先验条件,使我们能够有效地将它们纳入贝叶斯神经网络(BNN),包括可以按任务摊销的变体。

1068

Multi-Stage Influence Function

在本文中,我们开发了一个多阶段影响函数评分,以跟踪从微调模型一直到预训练数据的预测。

1069

Probabilistic Fair Clustering

在本文中,我们通过假设概率分配对组成员身份的知识不完善而对此进行了概括,并在具有近似率保证的这种更一般的情况下提出了算法。

1070

Stochastic Segmentation Networks: Modelling Spatially Correlated Aleatoric Uncertainty

在本文中,我们介绍了随机分割网络(SSN),这是一种有效的概率方法,可使用任何图像分割网络体系结构来模拟不确定性。

1071

ICE-BeeM: Identifiable Conditional Energy-Based Deep Models Based on Nonlinear ICA

们考虑概率模型的可识别性理论,并建立足够的条件,在此条件下,由非常广泛的基于条件能量的模型族学习的表示在函数空间中是唯一的,直到进行简单的转换。

1072

Testing Determinantal Point Processes

在本文中,我们从新的角度研究了DPP:分布的属性测试。

1073

CogLTX: Applying BERT to Long Texts

基于源自Baddeley认知理论,我们的CogLTX框架通过训练法官模型来识别关键句子,将其连接起来进行推理,并通过排练和衰减进行多步推理。

1074

f-GAIL: Learning f-Divergence for Generative Adversarial Imitation Learning

这项工作中,我们提出了f-GAIL(一种新的生成式对抗模仿学习模型),该模型会自动从f-分歧家族中学习差异度量以及能够产生类似专家行为的政策。

1075

Non-parametric Models for Non-negative Functions

在本文中,我们为非负函数提供了第一个模型,该模型受益于线性模型的相同优良特性。

1076

Uncertainty Aware Semi-Supervised Learning on Graph Data

这项工作中,我们提出了一个使用GNN的多源不确定性框架,该框架反映了深度学习和信念/证据理论领域中用于节点分类预测的各种类型的预测不确定性。

1077

ConvBERT: Improving BERT with Span-based Dynamic Convolution

因此,我们提出了一种新颖的基于跨度的动态卷积,以取代这些自注意力头部来直接对局部依赖性进行建模。

1078

Practical No-box Adversarial Attacks against DNNs

们提出了一种使用非常小的数据集(数十个示例的数量级)进行训练的三种机制,并发现原型重构是最有效的。

1079

Breaking the Sample Size Barrier in Model-Based Reinforcement Learning with a Generative Model

们假设状态变量为S且行动空间为A,假设访问了生成模型,我们研究了在?折扣的无限水平马尔可夫决策过程(MDP)中采用强化学习的样本效率。

1080

Walking in the Shadow: A New Perspective on Descent Directions for Constrained Minimization

这项工作中,我们试图揭开这些方向上运动对获得约束最小化器的影响的神秘性。

1081

Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks

针对此估计问题,我们提出了一种新的方法,将采样和解析近似步骤结合在一起。

1082

Reward Propagation Using Graph Convolutional Networks

们提出了一种新的框架,通过利用图表示学习的思想来学习潜在功能。

1083

LoopReg: Self-supervised Learning of Implicit Surface Correspondences, Pose and Shape for 3D Human Mesh Registration

们的主要贡献是LoopRegLoopReg是一种端到端学习框架,用于将扫描语料库注册到常见的3D人体模型。

1084

Fully Dynamic Algorithm for Constrained Submodular Optimization

们在完全动态的环境中研究此经典问题,在该环境中元素可以插入和删除。

1085

Robust Optimal Transport with Applications in Generative Modeling and Domain Adaptation

在本文中,我们通过推导适用于现代深度学习应用程序的健壮OT优化的高效计算对偶形式来解决这些问题。

1086

Autofocused oracles for model-based design

特别是,我们(i)将数据驱动的设计问题形式化为非零和博弈;(ii)开发一种原则性策略,以随着设计算法的进行而对回归模型进行再训练-们称之为自动聚焦,并且( iii)凭经验证明自动对焦的前景。

1087

Debiasing Averaged Stochastic Gradient Descent to handle missing values

们提出了一种处理线性模型中缺失值的平均随机梯度算法。

1088

Trajectory-wise Multiple Choice Learning for Dynamics Generalization in Reinforcement Learning

在本文中,我们提出了一种新的基于模型的RL算法,即币种轨迹式多选学习,该算法学习了一种用于动力学泛化的多头动力学模型。

1089

CompRess: Self-Supervised Learning by Compressing Representations

这项工作中,我们没有设计一种新的用于自我监督学习的伪任务,而是开发了一种模型压缩方法,用于将已经学习的深度自我监督模型(教师)压缩为较小的模型(学生)。

1090

Sample complexity and effective dimension for regression on manifolds

流形模型出现在各种各样的现代机器学习问题中,我们的目标是帮助理解利用流形结构的各种隐式和显式降维方法的有效性。

1091

The phase diagram of approximation rates for deep neural networks

们探索了深度神经网络的近似速率相图,并证明了一些新的理论结果。

1092

Timeseries Anomaly Detection using Temporal Hierarchical One-Class Network

在本文中,我们提出了时间等级一类(THOC)网络,这是一种用于时间序列异常检测的时间一类分类模型。

1093

EcoLight: Intersection Control in Developing Regions Under Extreme Budget and Network Constraints

本文介绍了预算有限且网络连接非常差的发展中地区的EcoLight交叉口控制。

1094

Reconstructing Perceptive Images from Brain Activity by Shape-Semantic GAN

视觉特征在皮层中分层表示的理论的启发,我们建议将复杂的视觉信号分解为多级分量,并分别解码每个分量。

1095

Emergent Complexity and Zero-shot Transfer via Unsupervised Environment Design

们提出了无监督环境设计(UED)作为替代范式,其中开发人员为环境提供了未知参数的环境,这些参数用于在有效的可解决环境中自动生成分布。

1096

A Spectral Energy Distance for Parallel Speech Synthesis

这里,我们提出了一种新的学习方法,该方法允许我们训练高度并行的语音模型,而无需访问分析似然函数。

1097

Simulating a Primary Visual Cortex at the Front of CNNs Improves Robustness to Image Perturbations

受此观察启发,我们开发了VOneNets这是一类新型的CNN混合视觉模型。

1098

Learning from Positive and Unlabeled Data with Arbitrary Positive Shift

们的主要见解是,只有否定类的分布才需要固定。

1099

Deep Energy-based Modeling of Discrete-Time Physics

这项研究中,我们提出了一个基于深层能量的物理模型,该模型允许采用特定的微分几何结构。

1100

Quantifying Learnability and Describability of Visual Concepts Emerging in Representation Learning

在本文中,我们特别考虑如何从最先进的聚类方法开始,刻画如何表征由深度神经网络自动发现的视觉分组。

1101

Self-Learning Transformations for Improving Gaze and Head Redirection

在本文中,我们提出了一种新颖的人脸图像生成模型,该模型能够在对眼睛凝视和头部朝向角度进行细粒度控制的情况下生成高质量图像。

1102

Language-Conditioned Imitation Learning for Robot Manipulation Tasks

基于对人类教学过程的洞察力,我们引入了一种将非结构化自然语言纳入模仿学习的方法。

1103

POMDPs in Continuous Time and Discrete Spaces

在本文中,我们给出了连续时间部分可观察的马尔可夫决策过程(POMDP)的数学描述。

1104

Exemplar Guided Active Learning

们描述了一种主动学习的方法:(1)通过利用现代语言模型提供的上下文嵌入空间来显式搜索稀有类,并且(2)包含一个停止规则,一旦我们证明它们出现在目标阈值以下并具有很高的阈值,就会忽略该类可能性。

1105

Grasp Proposal Networks: An End-to-End Solution for Visual Learning of Robotic Grasps

为此,我们在这项工作中提出了一种新颖的,端到端的¥emph {Grasp Proposal NetworkGPNet},以预测从一个未知摄像机视角观察到的看不见物体的各种6自由度抓取。

1106

Node Embeddings and Exact Low-Rank Representations of Complex Networks

这项工作中,我们证明了Seshadhri等人的结果。与使用的模型紧密相连,而不是复杂网络的低维结构。

1107

Fictitious Play for Mean Field Games: Continuous Time Analysis and Applications

在本文中,我们加深了对连续时间虚拟游戏学习算法的分析,以考虑各种有限状态平均场博弈设置(有限视野,$折扣),特别是允许引入其他常见噪声。

1108

Steering Distortions to Preserve Classes and Neighbors in Supervised Dimensionality Reduction

本文介绍的监督映射方法称为ClassNeRV,提出了一种原始应力函数,该函数考虑了类注释,并根据虚假邻居和遗漏邻居评估了嵌入质量。

1109

On Infinite-Width Hypernetworks

这项工作中,我们研究了广泛的超参数化超网络。

1110

Interferobot: aligning an optical interferometer by a reinforcement learning agent

这里,我们根据单眼相机获取的干涉条纹图像,训练RL代理对准Mach-Zehnder干涉仪,这是许多光学实验的重要组成部分。

1111

Program Synthesis with Pragmatic Communication

这项工作引入了一种新的归纳偏差,该偏差是通过将程序综合任务建模为理性沟通而得出的,并从语用学的递归推理模型中得出了见解。

1112

Principal Neighbourhood Aggregation for Graph Nets

因此,我们提出了邻域聚合PNA),这是一种将多个聚合器与度标度器结合在一起的新颖体系结构(可概括总和聚合器)。

1113

Reliable Graph Neural Networks via Robust Aggregation

们提出了一种基于鲁棒统计领域的鲁棒聚合函数。

1114

Instance Selection for GANs

这项工作中,我们提出了一种提高样本质量的新颖方法:在进行模型训练之前,通过实例选择来更改训练数据集。

1115

Linear Disentangled Representations and Unsupervised Action Estimation

这项工作中,我们凭经验表明,标准VAE模型中不存在线性解缠结表示,而是需要更改损耗格局来诱导它们。

1116

Video Frame Interpolation without Temporal Priors

这项工作中,我们解决了一般情况下的视频帧插值问题,在这种情况下,可以在不确定的曝光(和间隔)时间下获取输入帧。

1117

Learning compositional functions via multiplicative weight updates

本文证明乘性权重更新满足针对合成函数定制的下降引理。

1118

Sample Complexity of Uniform Convergence for Multicalibration

这项工作中,我们解决了多重校准误差,并将其与预测误差解耦。

1119

Differentiable Neural Architecture Search in Equivalent Space with Exploration Enhancement

不同的是,本文利用变分图自动编码器将离散的体系结构空间注入到等效的连续潜在空间中,以解决不一致问题。

1120

The interplay between randomness and structure during learning in RNNs

们展示了低维度的任务结构如何导致连通性的低级变化,以及随机初始连通性如何促进学习。

1121

A Generalized Neural Tangent Kernel Analysis for Two-layer Neural Networks

在本文中,我们提供了广义的神经正切核分析,并显示了具有权重衰减的嘈杂梯度下降仍然可以表现出类内核为。

1122

Instance-wise Feature Grouping

在本文中,我们使用信息论来正式定义两种类型的冗余:¥textit {Representation}¥textit {相关冗余}

1123

Robust Disentanglement of a Few Factors at a Time

在此观察结果的基础上,我们介绍了递归rPU-VAE方法。

1124

PC-PG: Policy Cover Directed Exploration for Provable Policy Gradient Learning

这项工作介绍了POLICY COVER GUIDED POLICY GRADIENTPC-PG)算法,该算法使用学习的策略组合(策略覆盖)可证明地平衡了探索与开发之间的权衡。

1125

Group Contextual Encoding for 3D Point Clouds

这项工作中,我们将最初为2D务设计的上下文编码层扩展到3D点云方案。

1126

Latent Bandits Revisited

这项工作中,我们基于置信区间上限和汤普森采样提出了针对潜在匪徒的通用算法。

1127

Is normalization indispensable for training deep neural network?

在本文中,我们研究了从网络中删除标准化层时会发生的情况,并展示了如何在不使用标准化层且不会降低性能的情况下训练深度神经网络。

1128

Optimization and Generalization of Shallow Neural Networks with Quadratic Activation Functions

们研究了超参数化条件下具有二次激活函数的单层神经网络的优化动力学和泛化性质,其中层宽度m大于输入维d

1129

Intra Order-preserving Functions for Calibration of Multi-Class Neural Networks

这项工作中,我们旨在学习通用的事后校准功能,该功能可以保留任何深度网络的前k预测。

1130

Linear Time Sinkhorn Divergences using Positive Features

们建议改用$ cxy=-¥log¥dotp {¥varphix} {¥varphiy} $形式的地面成本,其中$¥varphi $是来自地面空间的地图到正矫正子$¥RR ^ r _ + $上,其中$ r¥ll n $

1131

VarGrad: A Low-Variance Gradient Estimator for Variational Inference

们基于带有留一法控制变量的得分函数方法,分析了ELBO的无偏梯度估计器的属性,用于变分推断。

1132

A Convolutional Auto-Encoder for Haplotype Assembly and Viral Quasispecies Reconstruction

本文提出了一种基于卷积自动编码器的读取聚类方法,该方法被设计为首先将序列化片段投影到低维空间,然后使用学习的嵌入特征来估计读取起源的概率。

1133

Promoting Stochasticity for Expressive Policies via a Simple and Efficient Regularization Method

为了解决这个问题,我们提出了一种新颖的正则化方法,该方法与广泛的表达策略体系结构兼容。

1134

Adversarial Counterfactual Learning and Evaluation for Recommender System

过引入极小极大经验风险公式,我们提出了一种有原则的解决方案。

1135

Memory-Efficient Learning of Stable Linear Dynamical Systems for Prediction and Control

们提出了一种学习稳定LDS的新颖算法。

1136

Evolving Normalization-Activation Layers

归一化层和激活功能是深度网络中的基本组件,通常彼此位于同一位置。在这里,我们建议使用自动化方法来设计它们。

1137

ScaleCom: Scalable Sparsified Gradient Compression for Communication-Efficient Distributed Training

为了缓解这些问题,我们提出了一种新的压缩技术,即可伸缩稀疏梯度压缩(ScaleComp),该技术(i)利用学习者之间的梯度分布相似性来提供可交换的压缩器,并使通信成本与工作人员人数保持恒定,并且(ii)包括在局部梯度累积中使用低通滤波器,以减轻大批量训练的影响并显着提高可伸缩性。

1138

RelationNet++: Bridging Visual Representations for Object Detection via Transformer Decoder

本文提出了一种类似于Transformercite {vaswani2017attention}中基于注意力的解码器模块,以端到端的方式将其他表示形式桥接到基于单个表示形式格式的典型对象检测器中。

1139

Efficient Learning of Discrete Graphical Models

这项工作中,我们提供了第一个基于交互筛选框架的示例高效方法,该方法使人们能够以任意基础可靠地学习具有特定于节点的离散字母和多体交互的完全通用离散因子模型。

1140

Near-Optimal SQ Lower Bounds for Agnostically Learning Halfspaces and ReLUs under Gaussian Marginals

们研究了在高斯边际下不可知论地学习半空间和ReLU的基本问题。

1141

Neurosymbolic Transformers for Multi-Agent Communication

们提出了一种新颖的算法,该算法综合了控制策略,该策略将用于生成通信图的程序化通信策略与用于选择动作的变压器策略网络相结合。

1142

Fairness in Streaming Submodular Maximization: Algorithms and Hardness

这项工作中,我们解决了一个问题:是否可以为海量数据集创建合理的摘要?

1143

Smoothed Geometry for Robust Attribution

为了在实践中减轻这些攻击,我们提出了一种便宜的正则化方法,该方法可在DNN中促进这些条件,以及一种不需要重新训练的随机平滑技术。

1144

Fast Adversarial Robustness Certification of Nearest Prototype Classifiers for Arbitrary Seminorms

们证明,如果NPC使用由半范数引起的相异性度量,则假设裕度是对抗攻击规模的紧迫下限,并且可以在恒定时间内进行计算-这提供了可在合理时间内计算出的首个对抗鲁棒性证书。

1145

Multi-agent active perception with prediction rewards

在本文中,我们将多主体主动感知建模为具有凸集中预测奖励的分散的部分可观察的马尔可夫决策过程(Dec-POMDP)。

1146

A Local Temporal Difference Code for Distributional Reinforcement Learning

这里,我们介绍拉普拉斯(Laplace)代码:用于分布增强学习的局部时差代码,具有代表性,功能强大且计算简单。

1147

Learning with Optimized Random Features: Exponential Speedup by Quantum Machine Learning without Sparsity and Low-Rank Assumptions

这里,我们开发了一种量子算法,用于在运行时OD)中从特征上的优化分布进行采样,该运行时间在输入数据的维数D中呈线性。

1148

CaSPR: Learning Canonical Spatiotemporal Point Cloud Representations

们提出了CaSPR这是一种学习以对象为中心的动态移动或演化对象的规范时空点云表示的方法。

1149

Deep Automodulators

们介绍了一种称为自动调制器的生成自动编码器的新类别。

1150

Convolutional Tensor-Train LSTM for Spatio-Temporal Learning

在本文中,我们提出了一个高阶卷积LSTM模型,该模型可以有效地学习这些相关性以及历史的简洁表示。

1151

The Potts-Ising model for discrete multivariate data

们在Potts模型上引入一个变体,该变体允许一般的分类边际和Ising类型的多元依赖。

1152

Interpretable multi-timescale models for predicting fMRI responses to continuous natural speech

这项工作中,我们通过迫使LSTM LM中的各个单元整合特定时间范围内的信息来构造可解释的多时间范围表示。

1153

Group-Fair Online Allocation in Continuous Time

为了解决这些应用,我们考虑了公平性考虑了连续时间在线学习问题,并提出了一种基于连续时间效用最大化的新颖框架。

1154

Decentralized TD Tracking with Linear Function Approximation and its Finite-Time Analysis

贡献涉及使用具有线性函数逼近的时差(TD)方法的多代理Markov决策过程中的分散策略评估,以实现可伸缩性。

1155

Understanding Gradient Clipping in Private SGD: A Geometric Perspective

们首先演示梯度削波如何防止SGD敛到固定点。然后,我们对带有梯度裁剪的私人SGD提供了理论分析。

1156

O(n) Connections are Expressive Enough: Universal Approximability of Sparse Transformers

在本文中,我们解决了这些问题,并提供了一个捕获现有稀疏注意力模型的统一框架。

1157

Identifying signal and noise structure in neural population activity with Gaussian process factor models

为了学习模型的参数,我们引入了一种傅立叶域黑盒变分推断方法,该方法可以快速识别平滑的潜在结构。

1158

Equivariant Networks for Hierarchical Structures

笼统地说,我们表明层次结构的任何等变图都具有这种形式。

1159

MinMax Methods for Optimal Transport and Beyond: Regularization, Approximation and Numerics

们针对与(包括)最佳运输有关的一类优化问题研究MinMax解决方案方法。

1160

A Discrete Variational Recurrent Topic Model without the Reparametrization Trick

们展示了如何使用不依赖于随机反向传播来处理离散变量的神经变分推论来学习具有离散随机变量的神经主题模型(该模型显式地模拟了单词分配的主题)。

1161

Transferable Graph Optimizers for ML Compilers

为了解决这些局限性,我们基于归纳图神经网络上的可扩展顺序注意力机制,提出了一种用于计算图优化(GO)的端到端,可转移的深度强化学习方法。

1162

Learning with Operator-valued Kernels in Reproducing Kernel Krein Spaces

这项工作中,我们考虑了运算符值的内核,不一定是正定的。

1163

Learning Bounds for Risk-sensitive Learning

在本文中,我们建议研究风险敏感型学习方案的泛化性质,其最优性通过优化确定性等值(OCE)描述:我们的一般方案可处理各种已知风险,例如熵风险,均值方差和条件风险特殊情况下的风险价值。

1164

Simplifying Hamiltonian and Lagrangian Neural Networks via Explicit Constraints

们介绍了一系列具有挑战性的混沌和扩展体系统,包括具有N $$摆,弹簧耦合,磁场,刚性转子和陀螺仪的系统,以推动当前方法的极限。

1165

Beyond accuracy: quantifying trial-by-trial behaviour of CNNs and humans by measuring error consistency

这里,我们介绍了逐次试错的一致性,这是一种定量分析,用于测量两个决策系统是否在相同输入上系统地犯错。

1166

Provably Efficient Reinforcement Learning with Kernel and Neural Function Approximations

为解决这一挑战,我们将重点放在以核函数或参数化神经网络表示作用值函数的情景设置中,我们提出了第一种可证明的RL算法,该算法具有多项式运行时间和样本复杂度,而无需对数据生成模型。

1167

Constant-Expansion Suffices for Compressed Sensing with Generative Priors

们的主要贡献是打破了这种强大的扩展性假设,表明¥emph {constant}扩展性足以获得有效的恢复算法,此外它在信息理论上也是必要的。

1168

RANet: Region Attention Network for Semantic Segmentation

在本文中,我们介绍了¥emph {Region Attention Network}RANet),这是一种用于建模对象区域之间关系的新颖注意力网络。

1169

A random matrix analysis of random Fourier features: beyond the Gaussian kernel, a precise phase transition, and the corresponding double descent

本文描述了在实际情况下随机傅里叶特征(RFF)回归的精确渐近性,其中数据样本$ n $的数量,维数pp $和特征空$ N $维数都很大且具有可比性。

1170

Learning sparse codes from compressed representations with biologically plausible local wiring constraints

本文的主要贡献是利用结构化随机矩阵上的最新结果,为皮层区域之间的通信提出了一种随机投影的理论神经科学模型,该模型与在神经解剖学中观察到的局部布线约束相一致。

1171

Self-Imitation Learning via Generalized Lower Bound Q-learning

这项工作中,我们提出了一个n步下界,该下界概括了原始的基于返回值的下界Q习,并介绍了一个新的自模仿学习算法系列。

1172

Private Learning of Halfspaces: Simplifying the Construction and Reducing the Sample Complexity

们在有限元网格$ G $ in $¥R ^ d $中提供了一个半私人差分学习器,样本复杂度为$¥approx d ^ {2.5}¥cdot 2 ^ {¥log ^ * | G |} $$ d ^ 2 $的系数得出[Beimel等人,COLT 2019]的最新结果。

1173

Directional Pruning of Deep Neural Networks

鉴于随机梯度下降(SGD)通常在训练损失中找到平坦的最小谷这一事实,我们提出了一种新颖的定向修剪方法,该方法在该平坦区域中或附近寻找稀疏的最小化器。

1174

Smoothly Bounding User Contributions in Differential Privacy

为了在效用和隐私保证之间更好地权衡,我们提出了一种方法,该方法通过在数据点上设置适当的权重来平滑限制用户的贡献,并将其应用于估计均值/分位数,线性回归和经验风险最小化。

1175

Accelerating Training of Transformer-Based Language Models with Progressive Layer Dropping

这项工作中,我们提出了一种基于渐进层删除的方法,该方法可以加快基于Transformer语言模型的训练,而不会以过多的硬件资源为代价,而是通过模型架构的改变和训练技术的提高效率来进行训练。

1176

Online Planning with Lookahead Policies

这种情况下,我们设计了一种多步贪婪RTDP算法,我们将其称为$ h $ -RTDP该算法用$ h $骤的超前策略替换了1贪婪策略。

1177

Learning Deep Attribution Priors Based On Prior Knowledge

这里,我们提出了深度归因先验(DAPr)框架,以利用这些信息来克服归因方法的局限性。

1178

Using noise to probe recurrent neural network structure and prune synapses

这里,我们建议噪声可以在突触修剪中发挥功能性作用,使大脑能够探测网络结构并确定哪些突触是多余的。

1179

NanoFlow: Scalable Normalizing Flows with Sublinear Parameter Complexity

因此,我们提出了一种有效的参数分解方法和流指示嵌入的概念,它们是使从单个神经网络进行密度估计的关键缺失组件。

1180

Group Knowledge Transfer: Federated Learning of Large CNNs at the Edge

们使用三个不同的数据集(CIFAR-10CIFAR-100CINIC-10)及其非IID变体来训练基于ResNet-56ResNet-110设计的CNN

1181

Neural FFTs for Universal Texture Image Synthesis

这项工作中,受纹理图案重复性质的启发,我们发现纹理合成可以在快速傅立叶变换(FFT)域中视为(局部)¥textit {upsampling}

1182

Graph Cross Networks with Vertex Infomax Pooling

们提出了一种新颖的图跨网络(GXN),以从图的多个尺度实现全面的特征学习。

1183

Instance-optimality in differential privacy via approximate inverse sensitivity mechanisms

们通过扩展和逼近逆灵敏度机制来研究并提供差分隐私中的实例最优算法。

1184

Calibration of Shared Equilibria in General Sum Partially Observable Markov Games

本文旨在:i)正式理解此类行为者所达到的均衡,以及ii)将此类均衡的新兴现象与现实世界的目标相匹配。

1185

MOPO: Model-based Offline Policy Optimization

在本文中,我们观察到,与现有的基于模型的RL算法相比,即使没有针对这种模型设计的方法,也可以在离线环境中与无模型方法相比取得显着收益。

1186

Building powerful and equivariant graph neural networks with structural message-passing

们解决了这个问题,并基于两个想法提出了一个功能强大且等价的消息传递框架:首先,除了功能以外,我们传播节点的单次热编码,以便学习每个节点周围的局部上下文矩阵。

1187

Efficient Model-Based Reinforcement Learning through Optimistic Policy Search and Planning

在本文中,我们提出了一种实用的乐观探索算法(H-UCRL)。

1188

Practical Low-Rank Communication Compression in Decentralized Deep Learning

们介绍了一种简单的算法,该算法使用低秩线性压缩器直接压缩相邻工人之间的模型差异。

1189

Mutual exclusivity as a challenge for deep neural networks

在本文中,我们研究了香草神经体系结构是否存在ME偏倚,表明它们缺乏这种学习假设。

1190

3D Shape Reconstruction from Vision and Touch

在本文中,我们研究了此问题,并提出了一种基于图表的有效方法来进行多模式形状理解,该方法鼓励了类似的融合视觉和触摸信息。

1191

GradAug: A New Regularization Method for Deep Neural Networks

们提出了一种新的正则化方法来缓解深度神经网络中的过拟合问题。

1192

An Equivalence between Loss Functions and Non-Uniform Sampling in Experience Replay

们表明,使用非均匀采样数据评估的任何损失函数都可以转换为具有相同预期梯度的另一个均匀采样损失函数。

1193

Learning Utilities and Equilibria in Non-Truthful Auctions

对于学习实用程序,我们给出了样本复杂度的几乎匹配的下限(最多为多对数因子)。

1194

Rational neural networks

们考虑具有合理激活函数的神经网络。

1195

DISK: Learning local features with policy gradient

们介绍了DISK(离散关键点),这是一种通过利用强化学习(RL)的原理,为大量正确的特征匹配进行端到端优化而克服这些障碍的新颖方法。

1196

Transfer Learning via $\ell_1$ Regularization

们提出了一种通过高维$ ell_1 $则化将知识从源域转移到目标域的方法。

1197

GOCor: Bringing Globally Optimized Correspondence Volumes into Your Neural Network

们提出GOCor,一个完全可区分的密集匹配模块,用作特征关联层的直接替代。

1198

Deep Inverse Q-learning with Constraints

这项工作中,我们介绍了一类新颖的算法,只需恢复已证明的行为基础的MDP,即可恢复专家策略。

1199

Optimistic Dual Extrapolation for Coherent Non-monotone Variational Inequalities

在本文中,我们提出了{¥em乐观对偶外推法(OptDE}该方法每次迭代仅执行{¥em one}个梯度评估。

1200

Prediction with Corrupted Expert Advice

环境为良性并随机产生损失的情况下,我们会用专家的建议重新审视预测的基本问题,但学习者观察到的反馈会受到中等程度的对抗性破坏。

1201

Human Parsing Based Texture Transfer from Single Image to 3D Human via Cross-View Consistency

本文提出了一种基于人解析的纹理转移模型,该模型通过交叉视图一致性学习从单个图像生成3D人体纹理。

1202

Knowledge Augmented Deep Neural Networks for Joint Facial Expression and Action Unit Recognition

本文建议系统地捕获它们的依赖关系,并将其纳入用于联合面部表情识别和动作单元检测的深度学习框架。

1203

Point process models for sequence detection in high-dimensional neural spike trains

们通过开发一个点过程模型来解决这些缺点中的每一个,该模型在单个峰值的水平上表征精细序列并将序列出现表示为连续时间内的少量标记事件。

1204

Adversarial Attacks on Linear Contextual Bandits

在本文中,我们研究了几种攻击情形,并表明恶意代理可以迫使线性上下文强盗算法拉扯任何所需的手臂。oT)跨T步,同时对奖励或上下文应用对抗性修改,累积成本仅以Olog T)的对数增长。

1205

Meta-Consolidation for Continual Learning

这项工作中,我们提出了一种称为MERLIN的持续学习的新方法:持续学习的元合并。

1206

Organizing recurrent network dynamics by task-computation to enable continual learning

这里,我们开发了一种新颖的学习规则,旨在最大程度地减少递归网络中顺序学习的任务之间的干扰。

1207

Lifelong Policy Gradient Learning of Factored Policies for Faster Training Without Forgetting

们提供了一种用于终身策略梯度学习的新颖方法,该方法可以直接通过策略梯度来训练终身函数逼近器,从而使代理可以在整个培训过程中受益于积累的知识。

1208

Kernel Methods Through the Roof: Handling Billions of Points Efficiently

为此,我们为内核方法设计了预处理梯度求解器,该方法利用GPU加速和与多个GPU的并行化,实现了常见线性代数运算的核外变体,以确保最佳的硬件利用率。

1209

Spike and slab variational Bayes for high dimensional logistic regression

们研究了稀疏高维逻辑回归中广泛使用的贝叶斯模型选择先验的均值峰值和平板VB逼近。

1210

Maximum-Entropy Adversarial Data Augmentation for Improved Generalization and Robustness

在本文中,我们提出了一种新颖而有效的对抗性数据增强正则化术语。

1211

Fast geometric learning with symbolic matrices

们提供了标准机器学习框架的扩展,该扩展为CPUGPU上的这种抽象提供了全面的支持:我们的工具箱将通用,透明的用户界面与快速运行时间和低内存占用结合在一起。

1212

MESA: Boost Ensemble Imbalanced Learning with MEta-SAmpler

在本文中,我们介绍了一个名为MESA的新型集成IL框架。

1213

CoinPress: Practical Private Mean and Covariance Estimation

们为多元次高斯数据的参数提供了简单的微分私有估计量,这些参数在小样本量下是准确的。

1214

Planning with General Objective Functions: Going Beyond Total Rewards

在本文中,基于草绘算法的技术,我们在确定性系统中提出了一种新颖的规划算法,该算法处理形式为$ fr_1r_2…r_H$的一大类目标函数,这些目标函数对实际应用很有意义。

1215

Scattering GCN: Overcoming Oversmoothness in Graph Convolutional Networks

这里,我们建议通过几何散射变换和残差卷积来增强常规GCN

1216

KFC: A Scalable Approximation Algorithm for $k$-center Fair Clustering

在本文中,我们研究了基于$ k- $ center标的公平集群问题。

1217

Leveraging Predictions in Smoothed Online Convex Optimization via Gradient-based Algorithms

为了解决这个问题,我们引入了一种基于梯度的在线算法,即后视地平线不精确梯度(RHIG),并根据环境的时间变化和预测误差通过动态后悔来分析其性能。

1218

Learning the Linear Quadratic Regulator from Nonlinear Observations

们引入了一种新的算法RichID该算法通过仅对潜在状态空间的维数和解码器函数类的容量进行采样复杂度缩放,来学习RichLQR的近似最优策略。

1219

Reconciling Modern Deep Learning with Traditional Optimization Analyses: The Intrinsic Learning Rate

本文着重介绍了归一化网络行为偏离传统观点的其他方式,然后通过对传统框架的适当适应而建立了一个正式的框架来研究其数学,即通过适当的随机微分方程(SDESGD诱导的训练轨迹进行建模。 ),其中包含捕获梯度噪声的噪声项。

1220

Scalable Graph Neural Networks via Bidirectional Propagation

在本文中,我们提出了GBP这是一种可扩展的GNN,它利用了来自特征向量和训练/测试节点的局部双向传播过程。

1221

Distribution Aligning Refinery of Pseudo-label for Imbalanced Semi-supervised Learning

为了缓解此问题,我们提出了一个凸优化问题,以软化从偏差模型生成的伪标签,并开发了一种简单的算法,即伪标签的分布对齐精炼厂(DARP),可以有效地解决该问题。

1222

Assisted Learning: A Framework for Multi-Organization Learning

这项工作中,我们为组织引入了辅助学习框架,以在没有公开任何组织的算法,数据甚至任务的情况下互相协助进行有监督的学习任务。

1223

The Strong Screening Rule for SLOPE

们通过检查SLOPE亚微分方法来开发筛选规则,并证明该规则是套索的强规则的概括。

1224

STLnet: Signal Temporal Logic Enforced Multivariate Recurrent Neural Networks

在本文中,我们开发了一个新的基于时间逻辑的学习框架STLnet该模型以模型属性的辅助知识指导RNN习过程,并为改进的未来预测提供了更健壮的模型。

1225

Election Coding for Distributed Learning: Protecting SignSGD against Byzantine Attacks

本文提出了一种Election Coding这是一种编码理论框架,可确保基于有符号随机梯度下降(SignSGD)的分布式学习算法的拜占庭鲁棒性,从而最大程度地减少了工人与主人之间的沟通负担。

1226

Reducing Adversarially Robust Learning to Non-Robust PAC Learning

们研究了将对抗性鲁棒性学习减少为标准PAC习的问题,即仅使用黑匣子非鲁棒性学习者来学习对抗性鲁棒性预测因子的复杂性。

1227

Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad Samples

们对生成对抗网络(GAN训练算法进行了简单的修改(一行代码),从而在不增加计算成本的情况下实质性地改善了结果。

1228

Black-Box Optimization with Local Generative Surrogates

们提出了一种新的方法,用于使用可微局部代理模型对黑盒模拟器进行基于梯度的优化。

1229

Efficient Generation of Structured Objects with Constrained Adversarial Networks

为一种补救措施,我们提出了约束对抗网络(Constrained Adversarial NetworksCAN),它是GAN扩展,在训练过程中将约束条件嵌入模型中。

1230

Hard Example Generation by Texture Synthesis for Cross-domain Shape Similarity Learning

在本文中,我们确定了性能不佳的根源,并提出了解决此问题的实用方法。

1231

Recovery of sparse linear classifiers from mixture of responses

们来看一个迄今为止尚未研究的查询复杂度上限,即恢复所有超平面的问题,特别是在超平面稀疏的情况下。

1232

Efficient Distance Approximation for Structured High-Dimensional Distributions via Learning

具体来说,我们提出了以下问题的算法(其中dTV总变化距离):给定样本通过已知的有n节点且有界度近似dTVP1)的有向无环图G1G2进入两个贝叶斯网络P1P2 P2)到加法误差之内?使用polyn1 /?)样本和时间。

1233

A Single Recipe for Online Submodular Maximization with Adversarial or Stochastic Constraints

在本文中,我们考虑了奖励函数为DR次模的在线优化问题,除了最大化总奖励外,决策序列还必须平均满足一些凸约束。

1234

Learning Sparse Prototypes for Text Generation

在本文中,我们提出了一种新颖的生成模型,该模型可以自动学习稀疏的原型支持集,尽管如此,该支持集仍可实现强大的语言建模性能。

1235

Implicit Rank-Minimizing Autoencoder

这项工作中,通过依赖多层线性网络中的梯度下降学习导致最小秩解的事实,隐式最小化了代码的协方差矩阵的秩。

1236

Storage Efficient and Dynamic Flexible Runtime Channel Pruning via Deep Reinforcement Learning

在本文中,我们提出了一种基于深度强化学习(DRL)的框架,以在卷积神经网络(CNN)上有效地执行运行时通道修剪。

1237

Task-Oriented Feature Distillation

在本文中,我们提出了一种新颖的提炼方法,称为面向任务的特征提炼(TOFD),其中转换是卷积层,这些卷积层以数据驱动方式由任务丢失进行训练。

1238

Entropic Causal Inference: Identifiability and Finite Sample Results

在本文中,我们证明了他们的猜想的一种变体。也就是说,我们表明,对于几乎所有因果模型,其中外生变量具有与观察变量的状态数不成比例的熵,可以从观察数据中确定因果方向。

1239

Rewriting History with Inverse RL: Hindsight Inference for Policy Improvement

在本文中,我们证明了逆向RL是一种重用跨任务经验的原则性机制。

1240

Variance-Reduced Off-Policy TDC Learning: Non-Asymptotic Convergence Analysis

这项工作中,我们为非政策环境中的两个时标TDC算法开发了方差减少方案,并分析了iid¥Markovian样本的非渐近收敛速度。

1241

AdaTune: Adaptive Tensor Program Compilation Made Efficient

在本文中,我们提出了一种称为AdaTune的新方法,该方法可显着减少用于高性能深度学习推理的张量程序的优化时间。

1242

When Do Neural Networks Outperform Kernel Methods?

基于这些结果,我们提出了尖峰协变量模型,该模型可以在统一框架中捕获早期工作中观察到的两种行为。

1243

STEER : Simple Temporal Regularization For Neural ODE

在本文中,我们提出了一种新的正则化技术:在训练过程中随机采样ODE结束时间。

1244

A Variational Approach for Learning from Positive and Unlabeled Data

在本文中,我们介绍了一种用于PU习的变分原理,该原理使我们能够直接从给定数据中定量评估贝叶斯分类器的建模误差。

1245

Efficient Clustering Based On A Unified View Of $K$-means And Ratio-cut

首先,重新讨论了k值和比率削减的统一框架,然后提出了一种基于该框架的新颖高效的聚类算法。

1246

Recurrent Switching Dynamical Systems Models for Multiple Interacting Neural Populations

为了应对这一挑战,我们为多个人群开发了循环切换线性动力学系统模型。

1247

Coresets via Bilevel Optimization for Continual Learning and Streaming

这项工作中,我们通过基数约束的双层优化提出了一种新颖的核心集构造。

1248

Generalized Independent Noise Condition for Estimating Latent Variable Causal Graphs

为此,在本文中,我们考虑了线性,非高斯潜在变量模型(LiNGLaMs),其中潜在混杂因素也有因果关系,并提出了广义独立噪声(GIN)条件来估计此类潜在变量图。

1249

Understanding and Exploring the Network with Stochastic Architectures

这项工作中,我们将网络训练与具有随机架构(NSA)的网络从NAS分离开来,并作为一个独立的问题对其进行首次系统研究。

1250

All-or-nothing statistical and computational phase transitions in sparse spiked matrix estimation

们证明了尖峰和观测到的噪声矩阵之间渐近互信息的显式低维变分公式,并分析了稀疏状态下的近似消息传递算法。

1251

Deep Evidential Regression

在本文中,我们提出了一种训练非贝叶斯神经网络以估计连续目标及其相关证据的新颖方法,以了解无意识和认知不确定性。

1252

Analytical Probability Distributions and Exact Expectation-Maximization for Deep Generative Networks

们利用现代DGN连续分段仿射属性来推导其后分布和边缘分布以及后者的前两个​​时刻。

1253

Bayesian Pseudocoresets

们使用单一的统一解决方案贝叶斯伪核心集(这是合成伪数据的一小部分加权集合)以及选择伪数据和权重的变分优化方法来解决这两个问题。

1254

See, Hear, Explore: Curiosity via Audio-Visual Association

在本文中,我们介绍了一种好奇心的替代形式,该形式奖励不同感官之间的新型联想。

1255

Adversarial Training is a Form of Data-dependent Operator Norm Regularization

们为深层神经网络在对抗训练和算子规范化之间建立了理论联系。

1256

A Biologically Plausible Neural Network for Slow Feature Analysis

这项工作中,从SFA标开始,我们推导了一种称为Bio-SFASFA算法,该算法具有生物学上可行的神经网络实现。

1257

Learning Feature Sparse Principal Subspace

本文提出了新的算法来解决特征稀疏约束的PCA问题(FSPCA),该算法同时执行特征选择和PCA

1258

Online Adaptation for Consistent Mesh Reconstruction in the Wild

本文提出了一种从野外视频中重建可变形对象实例的时间一致3D网格的算法。

1259

Online learning with dynamics: A minimax perspective

们考虑动态在线学习的问题,即学习者在多个回合中与有状态环境进行交互。

1260

Learning to Select Best Forecast Tasks for Clinical Outcome Prediction

为了应对这一挑战,我们提出了一种从大量辅助任务中自动选择的方法,该辅助任务会产生对目标任务最有用的表示形式。

1261

Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient Clipping

在本文中,我们提出了一种新的加速随机一阶方法,称为Clipped-SSTM,用于在随机梯度中具有重尾分布噪声的平滑凸型随机优化问题,并推导了该方法的第一个高概率复杂度界线,从而弥补了理论上的空白重尾噪声的随机优化方法。

1262

Adaptive Experimental Design with Temporal Interference: A Maximum Likelihood Approach

值得注意的是,在我们的环境中,我们使用了通过Poisson方程Markov链进行经典mar分析的新颖应用,从而通过简洁的凸优化问题来表征有效的设计。

1263

From Trees to Continuous Embeddings and Back: Hyperbolic Hierarchical Clustering

这项工作中,我们提供了可证明的质量保证的Dasgupta离散优化问题的首次连续松弛。

1264

The Autoencoding Variational Autoencoder

变自动编码器(VAE)是否始终编码从其解码器生成的典型样本?本文表明,对这个问题可能令人惊讶的答案是。(经过名义训练的)VAE不一定会摊销能够生成的典型样本的推论。

1265

A Fair Classifier Using Kernel Density Estimation

这项工作中,我们开发了内核密度估计技巧,以量化捕获不相关程度的公平性度量。

1266

A Randomized Algorithm to Reduce the Support of Discrete Measures

们通过负圆锥给出了重心的简单几何特征,并推导了一种通过贪婪几何采样计算此新度量的随机算法。

1267

Distributionally Robust Federated Averaging

在本文中,我们研究了通过周期性平均和自适应采样来实现分布式鲁棒联邦学习的高效通信分布式算法。

1268

Sharp uniform convergence bounds through empirical centralization

们介绍了使用经验集中化来从他们的期望中得出新的实用的,概率的,依赖样本的界线,这些界线是家庭中功能性经验手段的最高偏差(SD)的上限。

1269

COBE: Contextualized Object Embeddings from Narrated Instructional Video

们提出了一个新的框架,用于从教学视频的自动转录叙事中学习情境化对象嵌入(COBE),而不是依赖此任务的手动标记数据。

1270

Knowledge Transfer in Multi-Task Deep Reinforcement Learning for Continuous Control

在本文中,我们提出了一种基于知识转移的多任务深度强化学习框架(KTM-DRL),用于持续控制,该框架使单个DRL代理可以通过向任务特定的老师学习,在多个不同的任务中达到专家级的性能。

1271

Finite Versus Infinite Neural Networks: an Empirical Study

们对宽泛的神经网络和核方法之间的对应关系进行了仔细,彻底和大规模的实证研究。

1272

Supermasks in Superposition

们介绍了超级蒙版叠加(SupSup)模型,该模型能够顺序学习数千个任务,而不会造成灾难性的遗忘。

1273

Nonasymptotic Guarantees for Spiked Matrix Recovery with Generative Priors

这项工作中,我们研究了一种替代的先验方法,其中低等级成分在经过训练的生成网络范围内。

1274

Almost Optimal Model-Free Reinforcement Learningvia Reference-Advantage Decomposition

们提出了一种无模型算法UCB-ADVANTAGE,并证明它达到了¥tilde {O}¥sqrt {H ^ 2 SAT})的遗憾,其中T = KHK是要播放的剧集数。

1275

Learning to Incentivize Other Learning Agents

虑到人类通常会提供激励因素来影响他人的行为,我们建议使用学习的激励函数,在多主体环境中为每个RL主体配备直接给予其他主体奖励的能力。

1276

Displacement-Invariant Matching Cost Learning for Accurate Optical Flow Estimation

本文提出了一种新颖的解决方案,该解决方案能够绕开构建5D特征量的要求,同时仍然允许网络从数据中学习合适的匹配成本。

1277

Distributionally Robust Local Non-parametric Conditional Estimation

为了缓解这些问题,我们提出了一种新的分布稳健估计器,该模型通过将Wasserstein模糊度集中所有对抗性分布的最坏情况有条件预期损失最小化来生成非参数局部估计。

1278

Robust Multi-Object Matching via Iterative Reweighting of the Graph Connection Laplacian

们提出了一种有效且鲁棒的迭代解决方案来解决多对象匹配问题。

1279

Meta-Gradient Reinforcement Learning with an Objective Discovered Online

这项工作中,我们提出了一种基于元梯度下降的算法,该算法仅通过与环境的交互体验即可发现其目标,并通过深度神经网络对其进行灵活参数化。

1280

Learning Strategy-Aware Linear Classifiers

们针对在策略上试图¥ emph {game}部署的分类器的代理反复学习线性分类器的问题,并且我们使用¥ emph {Stackelberg遗憾}来衡量算法的性能。

1281

Upper Confidence Primal-Dual Reinforcement Learning for CMDP with Adversarial Loss

这项工作中,我们提出了一种新的¥emph {upper confidence primal-dual}算法,该算法仅需要从过渡模型中采样的轨迹即可。

1282

Calibrating Deep Neural Networks using Focal Loss

们对导致失准的因素进行了全面的分析,并利用我们从中收集的见解来证明经验上出色的散焦性能。

1283

Optimizing Mode Connectivity via Neuron Alignment

们提出了一个更通用的框架,通过考虑所连接网络的权重置换来研究对称性对景观连通性的影响。

1284

Information Theoretic Regret Bounds for Online Nonlinear Control

这项工作研究了未知的非线性动力学系统中的顺序控制问题,在该系统中,我们将基础系统动力学建模为已知的再生内核希尔伯特空间中的未知函数。

1285

A kernel test for quasi-independence

在本文中,我们提出了准独立性的非参数统计检验。

1286

First Order Constrained Optimization in Policy Space

们提出了一种新颖的方法,称为策略空间中的一阶约束优化(FOCOPS),该方法可以最大化代理的总体回报,同时确保代理满足一组成本约束。

1287

Learning Augmented Energy Minimization via Speed Scaling

受最近学习增强型在线算法工作的启发,我们提出了一种算法,该算法以黑盒方式合并了预测,如果准确性很高,则其性能优于任何在线算法,但如果预测非常不准确,则可保持可证明的保证。

1288

Exploiting MMD and Sinkhorn Divergences for Fair and Transferable Representation Learning

这项工作中,我们根据人口比例衡量公平性。

1289

Deep Rao-Blackwellised Particle Filters for Time Series Forecasting

们提出了一个蒙特卡洛目标,该目标通过以闭式形式计算适当的条件期望值以及类似于最佳建议分布分解的合适建议分布来利用条件线性。

1290

Why are Adaptive Methods Good for Attention Models?

在本文中,我们提供了经验和理论证据,表明随机梯度中噪声的重尾分布是SGD性能不佳的原因之一。

1291

Neural Sparse Representation for Image Restoration

受到基于稀疏编码的图像恢复模型中稀疏表示的鲁棒性和效率的启发,我们研究了深度网络中神经元的稀疏性。

1292

Boosting First-Order Methods by Shifting Objective: New Schemes with Faster Worst-Case Rates

们提出了一种新的方法来设计无约束的强凸问题的一阶方法。

1293

Robust Sequence Submodular Maximization

在本文中,我们研究了一个具有基数约束的鲁棒序列次模最大化的新问题。

1294

Certified Monotonic Neural Networks

这项工作中,我们建议通过解决一个混合整数线性规划问题来证明一般分段线性神经网络的单调性。

1295

System Identification with Biophysical Constraints: A Circuit Model of the Inner Retina

这里,我们介绍内部视网膜的时间处理的计算模型,包括抑制性反馈电路和现实的突触释放机制。

1296

Efficient Algorithms for Device Placement of DNN Graph Operators

在本文中,我们确定并隔离了DNN运算符的设备放置核心的结构优化问题,无论是推理还是训练,尤其是在现代流水线设置中。

1297

Active Invariant Causal Prediction: Experiment Selection through Stability

这项工作中,我们提出了一个基于不变因果预测(ICP)的新的主动学习(即实验选择)框架(A-ICP)(Peters et al2016)。

1298

BOSS: Bayesian Optimization over String Spaces

本文开发了一种直接作用于原始字符串的贝叶斯优化(BO)方法,提出了BO环中字符串内核和遗传算法的首次使用。

1299

Model Interpretability through the lens of Computational Complexity

过研究民俗学可解释性主张是否与计算复杂性理论相关,我们朝着这一理论迈出了一步。

1300

Markovian Score Climbing: Variational Inference with KL(p||q)

本文开发了一种简单的算法,该算法使用具有消失偏差的随机梯度来可靠地最小化包含性KL

1301

Improved Analysis of Clipping Algorithms for Non-convex Optimization

在本文中,我们通过提出一个研究削波算法的通用框架来弥补差距,该框架还考虑了动量法。

1302

Bias no more: high-probability data-dependent regret bounds for adversarial bandits and MDPs

们开发了一种新的方法来获得在线学习的高概率后悔界限,并针对适应性对手对匪徒进行反馈。

1303

A Ranking-based, Balanced Loss Function Unifying Classification and Localisation in Object Detection

们提出了平均定位召回精度(aLRP),这是一种统一,有界,平衡和基于排名的损失函数,用于对象检测中的分类和本地化任务。

1304

StratLearner: Learning a Strategy for Misinformation Prevention in Social Networks

在本文中,我们考虑了这种情况,并研究了防止错误信息的问题。

1305

A Unified Switching System Perspective and Convergence Analysis of Q-Learning Algorithms

本文开发了一个新颖且统一的框架,以从交换系统的角度分析大量Q习算法的收敛性。

1306

Kernel Alignment Risk Estimator: Risk Prediction from Training Data

们研究了岭K> 0iid观测值的内核K的内核岭回归(KRR)的风险(即泛化误差)。

1307

Calibrating CNNs for Lifelong Learning

们提出了一种用于卷积神经网络(CNN)的终身/续学习方法,当从一项任务转移到另一项任务时,它不会遭受灾难性遗忘的困扰。

1308

Online Convex Optimization Over Erdos-Renyi Random Networks

这项工作研究了Erd¥H {o} sR¥'enyi随机网络上的节点到节点通信如何影响分布式在线凸优化,这对于在不利或变化的环境中解决大规模机器学习至关重要。

1309

Robustness of Bayesian Neural Networks to Gradient-Based Attacks

在本文中,我们分析了贝叶斯神经网络(BNN)的大数据,超参数化限制中的对抗攻击的几何形状。

1310

Parametric Instance Classification for Unsupervised Visual Feature learning

本文提出了用于无监督视觉特征学习的参数实例分类(PIC)。

1311

Sparse Weight Activation Training

这项工作中,我们提出了一种新颖的CNN训练算法,称为稀疏体重激活训练(SWAT)。

1312

Collapsing Bandits and Their Application to Public Health Intervention

们提出并研究了Collapsing Bandits这是一种新的躁动多臂匪徒(RMAB场景,其中的每个手臂都遵循具有特殊结构的二元状态马尔可夫过程:当播放手臂时,状态会被完全观察,从而任何不确定性,但是当机械臂处于被动状态时,不会进行观察,因此不确定性会不断演变。

1313

Neural Sparse Voxel Fields

这项工作中,我们介绍了神经稀疏体素字段(NSVF),这是一种用于快速,高质量的自由视点渲染的新神经场景表示。

1314

A Flexible Framework for Designing Trainable Priors with Adaptive Smoothing and Game Encoding

们介绍了一个设计和训练神经网络层的通用框架,该神经网络层的前向通过可以解释为解决非光滑凸优化问题,其体系结构是从优化算法得出的。

1315

The Discrete Gaussian for Differential Privacy

虑到这些缺点,我们在差分隐私的背景下介绍并分析了离散的高斯分布。

1316

Robust Sub-Gaussian Principal Component Analysis and Width-Independent Schatten Packing

们为以下基本统计任务开发了两种方法:从$ d维次亚高斯分布给出给定$ epseps的一$ n $样本,返回协方差矩阵的近似顶部特征向量。

1317

Adaptive Importance Sampling for Finite-Sum Optimization and Sampling with Decreasing Step-Sizes

这项工作中,我们在此框架的基础上,提出了一种简单有效的自适应重要性采样算法,用于有限和优化和步长减小的采样。

1318

Learning efficient task-dependent representations with synaptic plasticity

这里,我们构建了一个随机的递归神经回路模型,该模型可以使用一种新型的奖励调制的Hebbian突触可塑性来学习有效的,针对特定任务的感觉代码。

1319

A Contour Stochastic Gradient Langevin Dynamics Algorithm for Simulations of Multi-modal Distributions

们为大数据统计中的贝叶斯学习提出了一种自适应加权随机梯度兰格文动力学算法(SGLD),即所谓的轮廓随机梯度兰文文动力学(CSGLD)。

1320

Error Bounds of Imitating Policies and Environments

在本文中,我们首先通过行为克隆和生成对抗模型这两种模仿方法来分析专家政策与模仿政策之间的价值差距。

1321

Disentangling Human Error from Ground Truth in Segmentation of Medical Images

这项工作中,我们提出了一种方法,可以使用两个耦合的CNN仅从纯噪声的观测值中共同学习单个注释器的可靠性和真实的分段标签分布。

1322

Consequences of Misaligned AI

本文的贡献如下:1)我们提出了一个不完整的委托人来自人工智能的代理问题的新模型; 22)我们提供了必要和充分的条件,在这些条件下,针对任何不完整的代理目标进行无限优化会导致总体效用任意降低;和3)我们展示了如何修改设置以允许引用完整状态的奖励功能或允许委托人随着时间的推移更新代理目标,从而可以带来更高的效用解决方案。

1323

Promoting Coordination through Policy Regularization in Multi-Agent Deep Reinforcement Learning

们提出两种策略规范化方法:TeamReg(基于代理之间的行为可预测性)和CoachReg(基于同步行为选择)。

1324

Emergent Reciprocity and Team Formation from Randomized Uncertain Social Preferences

这项工作中,当培训具有随机不确定的社会偏好(RUSP)的代理人时,我们展示了直接对等,间接对等和声誉以及团队形成的证据,这是一种新颖的环境扩展,可以扩大代理人所处环境的分布。

1325

Hitting the High Notes: Subset Selection for Maximizing Expected Order Statistics

们考虑了从$ n $随机变量中选择$ k $的基本问题,即期望的最高值或第二高值被最大化。

1326

Towards Scale-Invariant Graph-related Problem Solving by Iterative Homogeneous GNNs

综合图论程序的角度来看,我们提出了一些扩展来解决这个问题。

1327

Regret Bounds without Lipschitz Continuity: Online Learning with Relative-Lipschitz Losses

这项工作中,我们考虑OCO的相Lipschitz和相对强凸函数。

1328

The Lottery Ticket Hypothesis for Pre-trained BERT Networks

这项工作中,我们结合这些观察结果来评估在预训练的BERT模型中是否存在这种可训练的,可转移的子网。

1329

Label-Aware Neural Tangent Kernel: Toward Better Generalization and Local Elasticity

在本文中,我们从¥emph {label-awareness}的角度介绍了一种新颖的方法,以缩小NTK这种差距。

1330

Beyond Perturbations: Learning Guarantees with Arbitrary Adversarial Test Examples

们提出了一种推导式学习算法,该算法将分布P和任意(未标记)测试示例(可能由对手选择)中的训练示例作为输入。

1331

AdvFlow: Inconspicuous Black-box Adversarial Attacks using Normalizing Flows

在本文中,我们介绍了AdvFlow:一种针对图像分类器的新型黑匣子对抗攻击方法,该方法利用归一化流的功能对给定目标图像周围的对抗示例进行密度建模。

1332

Few-shot Image Generation with Elastic Weight Consolidation

至关重要的是,我们在调整过程中调整权重的变化,以便在保留目标的同时最好地保留源数据集的信息。

1333

On the Expressiveness of Approximate Inference in Bayesian Neural Networks

们研究了近似贝叶斯预测分布的常用变分方法的质量。

1334

Non-Crossing Quantile Regression for Distributional Reinforcement Learning

为了解决这些问题,我们通过使用非交叉分位数回归来引入通用DRL框架,以确保每个采样批次内的单调性约束,可以将其与任何众所周知的DRL算法结合使用。

1335

Dark Experience for General Continual Learning: a Strong, Simple Baseline

们通过将演练与知识提炼和规范化相结合来解决这一问题;我们的简单基准黑暗体验重播与整个优化轨迹中采样的网络对数相匹配,从而促进了与过去的一致性。

1336

Learning to Utilize Shaping Rewards: A New Approach of Reward Shaping

在本文中,我们考虑了自适应利用给定的成形奖励函数的问题。

1337

Neural encoding with visual attention

使用来自一大批正在观看电影的人类受试者的并发眼动跟踪和功能性磁共振成像(fMRI记录,我们首先证明以注视掩盖的形式利用凝视信息可以显着提高神经编码中的脑反应预测准确性模型。

1338

On the linearity of large non-linear models: when and why the tangent kernel is constant

这项工作的目的是阐明某些神经网络的宽度趋于无穷大的线性过渡显着现象。

1339

PLLay: Efficient Topological Layer based on Persistent Landscapes

这项工作中,对于具有任意过滤的一般持久性同源性,我们展示了层输入的可区分性。

1340

Decentralized Langevin Dynamics for Bayesian Learning

受分散式机器学习方法的启发,我们提出了一种协同贝叶斯学习算法,该算法采用非凸环境中的分散式Langevin动力学形式。

1341

Shared Space Transfer Learning for analyzing multi-site fMRI data

本文提出了共享空间转移学习(SSTL)作为一种新颖的转移学习(TL)方法,该方法可以在功能上对齐同类多站点fMRI数据集,从而提高每个站点的预测性能。

1342

The Diversified Ensemble Neural Network

在本文中,我们通过构造所谓的多元化集成层以将多个网络组合为单个模块来提出一种有原则的集成技术。

1343

Inductive Quantum Embedding

们从重新设计原始的量化宽松问题开始,以便进行归纳。在此过程中,我们还强调了该解决方案的一些有趣的解析和几何属性,并利用它们来设计更快的训练方案。

1344

Variational Bayesian Unlearning

本文研究了从要删除的一小部分训练数据中近似取消学习贝叶斯模型的问题。

1345

Batched Coarse Ranking in Multi-Armed Bandits

们研究了MAB中的固定预算和固定置信度变量,并提出了算法并证明了不可能的结果,这些结果共同导致了总撤军次数与政策变更次数之间的几乎紧密的权衡。

1346

Understanding and Improving Fast Adversarial Training

基于此观察结果,我们提出了一种新的正则化方法GradAlign该方法通过显着最大化扰动集中的梯度对齐来防止灾难性的过度拟合,并提高了FGSM解决方案的质量。

1347

Coded Sequential Matrix Multiplication For Straggler Mitigation

这项工作中,我们考虑了一系列$ J $阵乘法作业,这些作业需要由主服务器分配给多个工作节点。

1348

Attack of the Tails: Yes, You Really Can Backdoor Federated Learning

文献中已经介绍了一系列FL后门攻击,也介绍了防御它们的方法,当前是否可以定制FL统以使其对后门具有鲁棒性仍是一个悬而未决的问题。在这项工作中,我们提供了相反的证据。

1349

Certifiably Adversarially Robust Detection of Out-of-Distribution Data

在本文中,我们的目标是通过不仅在OOD点上实施低置信度,而且在其周围的$ l_¥infty $球中实施针对OOD检测的可证明的最坏情况保证。

1350

Domain Generalization via Entropy Regularization

为了确保学习特征的条件不变性,我们提出了一个熵正则化项,用于测量学习特征与类标签之间的依赖性。

1351

Bayesian Meta-Learning for the Few-Shot Setting via Deep Kernels

认识到元学习正在多层次模型中实现学习之后,我们提出了通过使用深核对贝叶斯元学习内部循环的处理。

1352

Skeleton-bridged Point Completion: From Global Inference to Local Adjustment

为此,我们提出了一个骨架桥接点完成网络(SK-PCN)用于形状完成。

1353

Compressing Images by Encoding Their Latent Representations with Relative Entropy Coding

为替代方案,我们提出了一种新颖的方法,相对熵编码(REC),该编码方法可以直接编码与单个图像的相对熵接近的码长的潜在表示,并得到在Cifar10ImageNet32Kodak数据集上获得的经验结果的支持。

1354

Improved Guarantees for k-means++ and k-means++ Parallel

在本文中,我们研究了经典k值聚类问题的两种最受欢迎​​的算法k-means ++k-means ||

1355

Sparse Spectrum Warped Input Measures for Nonstationary Kernel Learning

们建立了一种显式的,依赖于输入,量度值的变形的一般形式,用于学习非平稳核。

1356

An Efficient Adversarial Attack for Tree Ensembles

们研究了对基于树的集合(例如梯度增强决策树(GBDT)和随机森林(RF))进行有效的对抗攻击的问题。

1357

Learning Continuous System Dynamics from Irregularly-Sampled Partial Observations

为了解决上述挑战,我们提出了LG-ODE这是一个潜在的常微分方程生成模型,用于以已知的图结构建模多主体动态系统。

1358

Online Bayesian Persuasion

在本文中,我们通过一个在线学习框架放松了这一假设,在该框架中,发件人面对类型未知的收件人。

1359

Robust Pre-Training by Adversarial Contrastive Learning

最近的工作表明,与对抗性训练相结合时,自我监督的预训练可以带来最先进的鲁棒性。在这项工作中,我们通过学习一致的表示来改善对鲁棒性的自我监督的预训练在数据扩充和对抗性扰动下

1360

Random Walk Graph Neural Networks

在本文中,我们为图结构化数据提出了一种更加直观和透明的架构,即所谓的随机游动图神经网络(RWNN)。

1361

Explore Aggressively, Update Conservatively: Stochastic Extragradient Methods with Variable Stepsize Scaling

为克服此失败,我们研究了双步超梯度算法,其中探索步骤与更新步骤相比在更积极的时间尺度上发展。

1362

Fast and Accurate $k$-means++ via Rejection Sampling

在本文中,我们为$ k $ -means ++种子提出了一种近似线性的时间算法。

1363

Variational Amodal Object Completion

在本文中,我们提出了一种用于非模态完成的变体生成框架,称为AMODAL-VAE该框架在训练时不需要任何非模态标签,因为它能够利用广泛使用的对象实例蒙版。

1364

When Counterpoint Meets Chinese Folk Melodies

在本文中,我们提出了一个基于增强学习的系统,名为FolkDuet,用于中国民间旋律的在线反旋律生成。

1365

Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search Spaces

为此,我们提出了一种新颖的BO算法,该算法基于对¥emph {hyperharmonic series}扩展率进行控制,从而在迭代过程中扩展(并移动)搜索空间。

1366

Universal Domain Adaptation through Self Supervision

们提出了一种可以处理任意类别转移的更普遍适用的域自适应方法,称为通过熵优化(DANCE)的域自适应邻域聚类。

1367

Patch2Self: Denoising Diffusion MRI with Self-Supervised Learning?

们引入了一种用于对DWI数据进行去噪的自我监督学习方法Patch2Self该方法使用整个卷来学习该卷的全秩局部线性去噪器。

1368

Stochastic Normalization

在本文中,我们通过重构广泛使用的批标准化(BN)模块来减轻过度拟合,从而采取一种替代方法。

1369

Constrained episodic reinforcement learning in concave-convex and knapsack settings

们提出了一种用于带约束的表格式情景强化学习的算法。

1370

On Learning Ising Models under Huber's Contamination Model

这样的设置中,我们旨在在高维缩放中设计统计上最优的估计量,其中节点数p边数k和最大节点度d被允许根据样本大小增加到无穷大。

1371

Cross-validation Confidence Intervals for Test Error

这项工作为学习算法上的弱稳定性条件下的交叉验证和渐近方差的一致估计建立了中心极限定理。

1372

DeepSVG: A Hierarchical Generative Network for Vector Graphics Animation

这项工作中,我们提出了一种新颖的分层生成网络,称为DeepSVG,用于复杂的SVG图标生成和插值。

1373

Bayesian Attention Modules

在本文中,我们提出了一种易于实施和优化的注意力的可扩展随机版本。

1374

Robustness Analysis of Non-Convex Stochastic Gradient Descent using Biased Expectations

这项工作提出了一种用于非凸和平滑优化的随机梯度下降(SGD)的新颖分析方法。

1375

SoftFlow: Probabilistic Framework for Normalizing Flow on Manifolds

在本文中,我们提出了SoftFlow这是一种用于训练流形上的规范化流量的概率框架。

1376

A meta-learning approach to (re)discover plasticity rules that carve a desired function into a neural network

这里,我们提出了一种使用元学习来发现合理的突触可塑性规则的替代方法。

1377

Greedy Optimization Provably Wins the Lottery: Logarithmic Number of Winning Tickets is Enough

本文提出了一种基于贪婪优化的修剪方法,为这一问题提供了一个答案。

1378

Path Integral Based Convolution and Pooling for Graph Neural Networks

鉴物理学的思想,我们提出了一种基于路径积分的图神经网络(PAN),用于图的分类和回归任务。

1379

Estimating the Effects of Continuous-valued Interventions using Generative Adversarial Networks

在本文中,我们通过修改生成对抗网络(GAN)框架来解决此问题。

1380

Latent Dynamic Factor Analysis of High-Dimensional Neural Recordings

们设计并实现了一种新方法,即高维时间序列的潜在动态因子分析(LDFA-H),该方法结合了(a)一种新的方法来估计高维时间序列之间的协方差结构(用于观测变量),并且(b)将概率CCA扩展到动态时间序列(针对潜在变量)。

1381

Conditioning and Processing: Techniques to Improve Information-Theoretic Generalization Bounds

在本文中,采用了这种方法的概率图形表示,并介绍了两种改进边界的通用技术,即调节和处理。

1382

Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and Reasoning

在最初的一百个BP启发下,我们提出了一个新的基准Bongard-LOGO,用于人类概念学习和推理。

1383

GAN Memory with No Forgetting

因此,我们提出了用于终身学习的GAN记忆,这种记忆可以通过生成过程记住数据流,而不会遗忘¥emph {no}

1384

Deep Reinforcement Learning with Stacked Hierarchical Attention for Text-based Games

这项工作中,我们旨在利用知识图进行显式推理,以进行决策,从而通过可解释的推理程序生成并支持代理的动作。

1385

Gaussian Gated Linear Networks

们提出了高斯门控线性网络(G-GLN),它是对最近提出的深度神经网络GLN系列的扩展。

1386

Node Classification on Graphs with Few-Shot Novel Labels via Meta Transformed Network Embedding

为了解决这个问题,我们提出了一种新颖的元转换网络嵌入框架(MetaTNE),该框架由三个模块组成:(1¥emph {结构模块}根据图结构为每个节点提供潜在的表示。

1387

Online Fast Adaptation and Knowledge Accumulation (OSAKA): a New Approach to Continual Learning

们建议使用Continual-MAML(流行的MAML算法的在线扩展)作为该方案的强基准。

1388

Convex optimization based on global lower second-order models

这项工作中,我们提出了用于复合凸优化的新二阶算法,称为收缩域牛顿法。

1389

Simultaneously Learning Stochastic and Adversarial Episodic MDPs with Known Transition

分析这样的调节器并得出特定的自我约束保证是我们的关键技术贡献,并且可能与个人利益有关。

1390

Relative gradient optimization of the Jacobian term in unsupervised deep learning

深密度模型已被广泛用于此任务,但基于最大似然的训练需要估计Jacobian对数行列式,并且计算量大,因此需要在计算和表达能力之间进行权衡。在这项工作中,我们提出了一种精确训练这种神经网络的新方法。

1391

Self-Supervised Visual Representation Learning from Hierarchical Grouping

们创建了一个框架,用于从原始视觉分组功能引导视觉表示学习。

1392

Optimal Variance Control of the Score-Function Gradient Estimator for Importance-Weighted Bounds

本文介绍了重要性加权变分界(IWAE)的得分函数梯度估计器的新结果。

1393

Explicit Regularisation in Gaussian Noise Injections

们研究了高斯噪声注入(GNI)在神经网络中引起的正则化。

1394

Numerically Solving Parametric Families of High-Dimensional Kolmogorov Partial Differential Equations via Deep Learning

们为高维线性Kolmogorov偏微分方程(PDE)的参数族的数值解提供了一种深度学习算法。

1395

Finite-Time Analysis for Double Q-learning

在本文中,我们为双Q习提供了第一个非渐近分析(即有限时间)。

1396

Learning to Detect Objects with a 1 Megapixel Event Camera

造成这种性能差距的主要原因是:与框架相机相比,事件传感器的空间分辨率较低;缺乏大规模的培训数据集;缺乏用于基于事件的处理的完善的深度学习架构。在本文中,我们在基于事件的对象检测任务的背景下解决了所有这些问题。

1397

End-to-End Learning and Intervention in Games

在本文中,我们为游戏的学习和干预提供了一个统一的框架。

1398

Least Squares Regression with Markovian Data: Fundamental Limits and Algorithms

相反,我们提出了一种基于经验重播的算法(一种流行的强化学习技术),该算法可显着提高错误率。

1399

Predictive coding in balanced neural networks with noise, chaos and delays

为了发现这样的原理,我们引入了一种平衡预测编码的分析易处理模型,在该模型中,平衡度和权重失调度可以与以前的平衡网络模型不同地分解,并且我们开发了一种编码精度的均值理论。

1400

Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs

们提出了一种简单的基于插值的方法来对神经ODE模型中的梯度进行有效逼近。

1401

On the Equivalence between Online and Private Learnability beyond Binary Classification

们调查这种等效性是否扩展到多类分类和回归。

1402

AViD Dataset: Anonymized Videos from Diverse Countries

们引入了一个新的用于行动识别的公共视频数据集:来自不同国家/地区的匿名视频(AViD)。

1403

Probably Approximately Correct Constrained Learning

为了解决这些问题,我们基于可能近似正确的(PAC)学习框架开发了约束学习的泛化理论。

1404

RATT: Recurrent Attention to Transient Tasks for Continual Image Captioning

在本文中,我们系统地研究了基于LSTM图像字幕模型的持续学习。

1405

Decisions, Counterfactual Explanations and Strategic Behavior

在本文中,我们的目标是找到在这种战略背景下效用最佳的政策和反事实解释。

1406

Hierarchical Patch VAE-GAN: Generating Diverse Videos from a Single Sample

们介绍了一种新颖的基于补丁的变分自动编码器(VAE),它可以在生成中提供更大的多样性。

1407

A Feasible Level Proximal Point Method for Nonconvex Sparse Constrained Optimization

在本文中,我们研究了一个由一般的凸或非凸物镜以及各种连续的非凸稀疏性约束组成的新模型。

1408

Reservoir Computing meets Recurrent Kernels and Structured Transforms

们的贡献有三点:a)我们严格建立了储层计算的递归内核极限,并证明了其收敛性。b)我们在混沌时间序列预测上测试了我们的模型,混沌时间序列预测是水库计算中的经典但具有挑战性的基准,并显示了当数据点数量保持适度时,循环核如何具有竞争力和计算效率。c)当样本数量太大时,我们通过引入结构化储层计算来利用结构化随机特征的成功进行内核近似。

1409

Comprehensive Attention Self-Distillation for Weakly-Supervised Object Detection

为了解决上述问题,我们为WSOD提出了一种综合注意自我蒸馏(CASD)培训方法。

1410

Linear Dynamical Systems as a Core Computational Primitive

T运行非线性RNN需要OT时间。我们的构造称为LDStack,大约在Olog T)并行时间内运行它们,并通过重复获得任意低的错误。

1411

Ratio Trace Formulation of Wasserstein Discriminant Analysis

们将Wasserstein判别分析(WDA)重构为比率跟踪问题,并提出了一种基于特征求解器的算法来计算WDA的判别子空间。

1412

PAC-Bayes Analysis Beyond the Usual Bounds

具体来说,我们为随机核提出了一种基本的PAC-Bayes不等式,从中可以得出各种已知PAC-Bayes界以及新界的扩展。

1413

Few-shot Visual Reasoning with Meta-Analogical Contrastive Learning

这项工作中,我们建议通过使用¥emph {analog推理}来解决这种少拍(或低拍)的抽象视觉推理问题,这是人类识别两组之间结构或关系相似性的独特能力。

1414

MPNet: Masked and Permuted Pre-training for Language Understanding

在本文中,我们提出了MPNet这是一种新颖的预训练方法,它继承了BERTXLNet优点并避免了它们的局限性。

1415

Reinforcement Learning with Feedback Graphs

们在表格MDP设置中研究RL,其中代理以过渡样本的形式在每个步骤中收到其他观察结果。

1416

Zap Q-Learning With Nonlinear Function Approximation

本文介绍了一个用于分析更通用的递归算法(称为随机逼近)的新框架。

1417

Lipschitz-Certifiable Training with a Tight Outer Bound

这项研究中,我们提出了一种基于Lipschitz分析和区间算法的快速且可扩展的可验证训练算法。

1418

Fast Adaptive Non-Monotone Submodular Maximization Subject to a Knapsack Constraint

们提出了一种简单的随机贪心算法,该算法可以实现近似$ 5.83 $运行时间,且运行时间为$ On loglog n$,即比其他最新算法至少快$ n $

1419

Conformal Symplectic and Relativistic Optimization

这里,我们研究了一类耗散(保形)哈密顿系统的保结构离散化,除了为这些方法提供了一些新的见解之外,还使我们能够分析内斯特罗夫和沉重的球的辛结构。

1420

Bayes Consistency vs. H-Consistency: The Interplay between Surrogate Loss Functions and the Scoring Function Class

但是,后续工作表明,该框架在研究H一致性时价值有限。特别是,人们甚至担心即使数据来自基础线性模型,也无法将线性计分函数上的某些凸面校准替代品最小化而无法恢复真实模型(LongServedio2013年)。在本文中,我们调查了这个明显的难题。

1421

Inverting Gradients – How easy is it to break privacy in federated learning?

但是,通过利用幅度不变的损失以及基于对抗攻击的优化策略,我们表明,实际上有可能根据其参数梯度的知识来忠实地重建高分辨率的图像,并证明这种隐私的破坏是可能的即使是经过训练的深度网络。

1422

Dynamic allocation of limited memory resources in reinforcement learning

在本文中,我们提出了一个动态框架,以在有限资源的约束下最大化期望的报酬,我们使用成本函数来实现该模型,该函数会对内存中的动作值的精确表示进行惩罚,而每种精确度的表示都可能有所不同。

1423

CryptoNAS: Private Inference on a ReLU Budget

本文观察到现有模型不适用于PI,并提出了一种新颖的NAS方法CryptoNAS,用于查找和定制满足PI需求的模型。

1424

A Stochastic Path Integral Differential EstimatoR Expectation Maximization Algorithm

本文介绍了一种新颖的EM算法,称{¥tt SPIDER-EM},用于从大小$ n $$ n¥gg 1 $训练集中进行推断。

1425

CHIP: A Hawkes Process Model for Continuous-time Networks with Scalable and Consistent Estimation

们为此类网络提出了社区霍克斯独立对(CHIP)生成模型。

1426

SAC: Accelerating and Structuring Self-Attention via Sparse Adaptive Connection

在本文中,我们提出了一种加速和构建自我注意力的方法:稀疏自适应连接(SAC)。

1427

Design Space for Graph Neural Networks

们的方法具有三项关键创新:(1)通用的GNN设计空间;(2)具有相似性度量的GNN务空间,因此对于给定的新颖任务/数据集,我们可以快速识别/传输性能最佳的体系结构;(3)一种有效的设计空间评估方法,该方法可以从大量的模型任务组合中提取见解。

1428

HiFi-GAN: Generative Adversarial Networks for Efficient and High Fidelity Speech Synthesis

这项工作中,我们提出了HiFi-GAN,它可以实现高效和高保真语音合成。

1429

Unbalanced Sobolev Descent

们引入了非平衡Sobolev下降(USD),这是一种用于将高维源分布传输到不一定具有相同质量的目标分布的粒子下降算法。

1430

Identifying Mislabeled Data using the Area Under the Margin Ranking

本文介绍了一种在训练神经网络时识别此类样本并减轻其影响的新方法。

1431

Combining Deep Reinforcement Learning and Search for Imperfect-Information Games

本文介绍了ReBeL这是一种自我玩法强化学习和搜索的通用框架,可证明其收敛于任何两人零和游戏中的纳什均衡。

1432

High-Throughput Synchronous Deep RL

为了结合两种方法的优点,我们提出了高通量同步深度强化学习(HTS-RL)。

1433

Contrastive Learning with Adversarial Examples

本文通过介绍一个新的用于对抗性学习的对抗性示例系列,并使用这些示例定义了一种新的SSL对抗性训练算法,称为CLAE,来解决该问题。

1434

Mixed Hamiltonian Monte Carlo for Mixed Discrete and Continuous Variables

在本文中,我们提出了混合HMCM-HMC)作为解决此限制的通用框架。

1435

Adversarial Sparse Transformer for Time Series Forecasting

为了解决这些问题,在本文中,我们基于生成的对抗网络(GAN),提出了一个新的时间序列预测模型-对抗性稀疏变压器(AST)。

1436

The Surprising Simplicity of the Early-Time Learning Dynamics of Neural Networks

这项工作中,我们证明了这些普遍的看法在学习的早期阶段可能是完全错误的。

1437

CLEARER: Multi-Scale Neural Architecture Search for Image Restoration

现有的劳动密集型手工建筑设计范例不同,我们提出了一种新颖的方法,称为图像恢复的多维度神经体系结构搜索(CLEARER),这是一种专门设计的用于图像恢复的神经体系结构搜索(NAS)。

1438

Hierarchical Gaussian Process Priors for Bayesian Neural Network Weights

为此,本文介绍了两项创新:(i)基于高斯过程的网络权重分层模型,该模型基于可以灵活编码相关权重结构的单位嵌入,以及(ii这些权重先验的输入相关版本可以提供通过使用上下文输入中定义的内核来规范功能空间的便捷方法。

1439

Compositional Explanations of Neurons

们描述了一种通过识别与神经元行为近似的成分逻辑概念来解释深度表示中的神经元的过程。

1440

Calibrated Reliable Regression using Maximum Mean Discrepancy

在本文中,我们关注在回归任务中获得经过良好校准的预测。

1441

Directional convergence and alignment in deep learning

在本文中,我们表明,尽管交叉熵和相关分类损失的极小值在无穷远处消失,但梯度流学习的网络权重在方向上收敛,网络预测,训练误差和裕度分布也都在收敛。

1442

Functional Regularization for Representation Learning: A Unified Theoretical Perspective

们提出了一个判别性的理论框架来分析这些方法的样本复杂性,它概括了(Balcan and Blum2010)的框架以允许可学习的正则化功能。

1443

Provably Efficient Online Hyperparameter Optimization with Population-Based Bandits

这项工作中,我们介绍了第一个可证明有效的PBT风格算法,即基于人口的匪徒(PB2)。

1444

Understanding Global Feature Contributions With Additive Importance Measures

们引入了两种预测能力的概念(基于模型的和通用的),并通过可加性重要性测度的框架将该方法形式化,这将文献中的许多方法统一起来。

1445

Online Non-Convex Optimization with Imperfect Feedback

们考虑了非凸损失的在线学习问题。在反馈方面,我们假设学习者观察(或以其他方式构造)每个阶段遇到的损失函数的不精确模型,并且我们提出了基于对偶平均的混合策略学习策略。

1446

Co-Tuning for Transfer Learning

为了¥textit {完全}转移预训练的模型,我们提出了一个名为¥textbf {Co-Tuning}的两步框架:(i)从预训练的模型和校准的预测中了解源类别和目标类别之间的关系;(ii)通过类别关系翻译的目标标签(单标签)和源标签(概率标签)共同监督微调过程。

1447

Multifaceted Uncertainty Estimation for Label-Efficient Deep Learning

们提出了一种新颖的多源不确定性预测方法,该方法可使深度学习(DL)模型能够以少得多的标记数据进行主动训练。

1448

Continuous Surface Embeddings

这项工作中,我们专注于学习和表示可变形对象类别中的密集对应关系的任务。

1449

Succinct and Robust Multi-Agent Communication With Temporal Message Control

在本文中,我们介绍了¥textit {Temporal Message Control}TMC),这是一种在MARL实现简洁而强大的通信的简单有效的方法。

1450

Big Bird: Transformers for Longer Sequences

为了解决这个问题,我们建议使用一种稀疏的注意力机制BigBird,它将这种二次依赖性降低为线性。

1451

Neural Execution Engines: Learning to Execute Subroutines

为了解决该问题,我们提出了一种学习型条件掩蔽机制,该机制可使模型在各种算法上以接近完美的精度将其训练范围以外的区域强泛化。

1452

Random Reshuffling: Simple Analysis with Vast Improvements

们通过理论和实验证明,新的方差类型为RR的卓越性能提供了另外的证明。为了超越强凸性,我们提出了一些非强凸和非凸物镜的结果。

1453

Long-Horizon Visual Planning with Goal-Conditioned Hierarchical Predictors

这项工作中,我们提出了一个视觉预测和规划框架,该框架能够克服这两个限制。

1454

Statistical Optimal Transport posed as Learning Kernel Embedding

这项工作采用了一种新颖的方法,即将统计OT伪装成从基于样本的边际嵌入估计值中学习运输计划的内核均值嵌入的方法。

1455

Dual-Resolution Correspondence Networks

这项工作中,我们引入了双分辨率对应网络(DualRC-Net),以从粗到精的方式获得逐像素的对应关系。

1456

Advances in Black-Box VI: Normalizing Flows, Importance Weighting, and Optimization

在本文中,我们假设黑盒VI可以通过多种算法组件的精心组合得到最佳解决。

1457

f-Divergence Variational Inference

本文介绍了f散度变分推论(f-VI),它概括了对所有f散度的变分推论。

1458

Unfolding recurrence by Green?s functions for optimized reservoir computing

这项工作的目的是提出一种可链接到前馈网络的可解决的递归网络模型。

1459

The Dilemma of TriHard Loss and an Element-Weighted TriHard Loss for Person Re-Identification

设计并测试了几种缓解困境的方法。同时,着重提出了一种元素加权的TriHard损失,以有选择地增大代表锚和硬负样本之间不同特征的特征向量的部分元素之间的距离。

1460

Disentangling by Subspace Diffusion

们提出了一种基于几何流形的对称解缠结的新型非参数算法,即几何流形分量估计器(GEOMANCER)。

1461

Towards Neural Programming Interfaces

们将控制自然语言生成的问题重现为学习与预先训练的语言模型交互的问题,就像应用程序编程接口(API)通过更改超参数来控制程序的行为一样。

1462

Discovering Symbolic Models from Deep Learning with Inductive Biases

们通过引入强大的归纳偏差,开发了一种通用方法来提取学习的深度模型的符号表示。

1463

Real World Games Look Like Spinning Tops

本文研究了现实世界游戏(例如井字游戏,围棋,星际争霸II)的几何特性。

1464

Cooperative Heterogeneous Deep Reinforcement Learning

这项工作中,我们提出了一个合作的异构深度强化学习(CHDRL)框架,该框架可以通过集成异构代理的优势来学习策略。

1465

Mitigating Forgetting in Online Continual Learning via Instance-Aware Parameterization

为了减轻这种情况,我们利用了神经网络中的实例感知概念,其中每个数据实例均由控制器从元图搜索的网络中的路径进行分类。

1466

ImpatientCapsAndRuns: Approximately Optimal Algorithm Configuration from an Infinite Pool

受此想法的启发,我们引入了ImpatientCapsAndRuns,与以前的具有理论保证的算法相比,该算法可快速丢弃不太有前途的配置,显着加快搜索过程,同时在温和的假设下仍能达到对数因子的最佳运行时间。

1467

Dense Correspondences between Human Bodies via Learning Transformation Synchronization on Graphs

们介绍一种用于在部分人体模型扫描与完整模板模型之间建立密集对应关系的方法。

1468

Reasoning about Uncertainties in Discrete-Time Dynamical Systems using Polynomial Forms.

在本文中,我们提出了多项式形式来表示离散时间随机动力系统随时间变化的状态变量。

1469

Applications of Common Entropy for Causal Inference

为了有效地计算公共熵,我们提出了一种迭代算法,该算法可用于发现潜在变量的熵与观测变量的条件互信息之间的折衷。

1470

SGD with shuffling: optimal rates without component convexity and large epoch requirements

具体来说,根据对有限和的索引进行混洗的方式,我们考虑使用RandomShuffle(在每个时期的开始进行混洗)和SingleShuffle(只进行一次混洗)算法。

1471

Unsupervised Joint k-node Graph Representations with Compositional Energy-Based Models

们提出MHM-GNN这是一种归纳式无监督图表示方法,它将联合的k节点表示与基于能量的模型(超图马尔可夫网络)和GNN结合在一起。

1472

Neural Manifold Ordinary Differential Equations

在本文中,我们研究流形上的归一化流。

1473

CO-Optimal Transport

为了避免这种局限性,我们提出了一个新的OT问题,称为CO-优运输的COOT该问题同时优化了两个样本和特征之间的两个运输图,这与其他方法不同,后者要么通过关注样本之间的成对距离来丢弃单个特征,要么需要明确地建模它们之间的关系。

1474

Continuous Meta-Learning without Tasks

这项工作中,我们可以将通用元学习算法应用于无法进行此任务细分的设置,例如使用不分段的时间序列数据进行连续的在线学习。

1475

A mathematical theory of cooperative communication

过与最佳运输理论的联系,我们建立了合作交流的数学框架。

1476

Penalized Langevin dynamics with vanishing penalty for smooth and log-concave targets

们研究了通过凸和平滑势函数定义的$¥mathbb R ^ p $的概率分布进行抽样的问题。

1477

Learning Invariances in Neural Networks from Training Data

们展示了如何通过参数化扩充分布来学习不变性,并同时针对网络参数和扩充参数优化训练损失。

1478

A Finite-Time Analysis of Two Time-Scale Actor-Critic Methods

这项工作中,我们为非iid设置下的两种时间尺度演员批判方法提供了一种非渐近分析。

1479

Pruning Filter in Filter

为了融合这两种方法的强度,我们建议在过滤器中修剪过滤器。

1480

Learning to Mutate with Hypergradient Guided Population

这项研究中,我们提出了一种超参数变异(HPM)算法,以明确考虑使用全局搜索和局部搜索之间的可取取的取舍,其中我们采用大量学生模型来同时探索由超梯度引导的超参数空间并利用教师模型通过利用表现最好的学生来改变表现不佳的学生。

1481

A convex optimization formulation for multivariate regression

在本文中,我们为一般误差协方差结构下的高维多元线性回归提出了凸优化公式。

1482

Online Meta-Critic Learning for Off-Policy Actor-Critic Methods

在本文中,我们介绍了一种灵活且扩充的元批评家,该批评家观察了学习过程,并为演员学习了额外的损失,从而加速并改善了演员批判性学习。

1483

The All-or-Nothing Phenomenon in Sparse Tensor PCA

们研究了估计由加性高斯噪声破坏的一阶稀疏张量的统计问题,高斯加性模型也称为稀疏张量PCA

1484

Synthesize, Execute and Debug: Learning to Repair for Neural Program Synthesis

这项工作中,我们提出了SED这是一个包含综合,执行和调试阶段的神经程序生成框架。

1485

ARMA Nets: Expanding Receptive Field for Dense Prediction

这项工作中,我们建议用自回归移动平均(ARMA层替换任何传统的卷积层,这是一种具有可调整的接收场的新型模块,该接收场由可学习的自回归系数控制。

1486

Diversity-Guided Multi-Objective Bayesian Optimization With Batch Evaluations

们提出了一种新颖的多目标贝叶斯优化算法,该算法迭代选择要并行评估的最佳样本批次。

1487

SOLOv2: Dynamic and Fast Instance Segmentation

这项工作中,我们设计了一个简单,直接且快速的框架,以实现具有出色性能的实例细分。

1488

Robust Recovery via Implicit Bias of Discrepant Learning Rates for Double Over-parameterization

本文表明,对于低秩矩阵和稀疏腐败,都使用{¥em double over-parameterization},即使没有先验知识就无需对矩阵进行排序,具有{¥em差异学习率}的梯度下降也可以恢复基础矩阵。也没有稀疏的腐败。

1489

Axioms for Learning from Pairwise Comparisons

们显示,使用MLE进行估算时,一大类随机效用模型(包括Thurstone-Mosteller模型)满足帕累托效率条件。

1490

Continuous Regularized Wasserstein Barycenters

利用正则化Wasserstein重心问题的新对偶公式,我们引入了一种随机算法,该算法构造了重心的连续逼近。

1491

Spectral Temporal Graph Neural Network for Multivariate Time-series Forecasting

在本文中,我们提出了频谱时间图神经网络(StemGNN),以进一步提高多元时间序列预测的准确性。

1492

Online Multitask Learning with Long-Term Memory

当假设类别为有限时,我们提供了一种算法,可以在每个试验中以假设数量线性预测时间。

1493

Fewer is More: A Deep Graph Metric Learning Perspective Using Fewer Proxies

在本文中,我们从图分类的角度提出了一种新颖的基于代理的深度图度量学习(ProxyGML)方法,该方法使用更少的代理,但可以获得更好的综合性能。

1494

Adaptive Graph Convolutional Recurrent Network for Traffic Forecasting

在本文中,我们认为学习节点特定的模式对于流量预测至关重要,而可避免使用预定义的图。

1495

On Reward-Free Reinforcement Learning with Linear Function Approximation

这项工作中,我们使用线性函数逼近给出了无报酬RL的正面和负面结果。

1496

Robustness of Community Detection to Random Geometric Perturbations

们考虑一个随机块模型,其中顶点之间的连接受到一些潜在的(和未观察到的)随机几何图的干扰。

1497

Learning outside the Black-Box: The pursuit of interpretable models

本文提出了一种算法,该算法可对任何给定的连续黑盒函数产生连续的全局解释。

1498

Breaking Reversibility Accelerates Langevin Dynamics for Non-Convex Optimization

们研究了基于不可逆的Langevin扩散的两个变体:欠阻尼的Langevin动力学(ULD)和具有非对称漂移的Langevin动力学(NLD)。

1499

Robust large-margin learning in hyperbolic space

在本文中,就我们所知,我们提出了在双曲空间而不是欧几里得空间中学习分类器的第一个理论保证。

1500

Replica-Exchange Nos\'e-Hoover Dynamics for Bayesian Learning on Large Datasets

在本文中,我们提出了一种用于贝叶斯学习的新实用方法,该方法可以在存在小批量噪声的情况下,从具有多个孤立模式的复杂后验分布中快速提取代表性样本。

1501

Adversarially Robust Few-Shot Learning: A Meta-Learning Approach

们工作的目标是建立既能在几次分类任务中表现出色又能对付对抗性例子的网络。

1502

Neural Anisotropy Directions

这项工作中,我们分析了网络体系结构在塑造深度分类器的归纳偏差中的作用。

1503

Digraph Inception Convolutional Networks

在本文中,我们从理论上将基于频谱的图卷积扩展到有向图,并使用个性化PageRank导出简化形式。

1504

PAC-Bayesian Bound for the Conditional Value at Risk

本文提出了一种学习算法的推广约束,该算法使经验损失的¥¥textsc {CVaR} $最小。

1505

Stochastic Stein Discrepancies

为了解决这一缺陷,我们表明,基于斯坦算子的二次采样近似值的随机斯坦因差异(SSD)以概率1继承了标准SD的收敛控制性质。

1506

On the Role of Sparsity and DAG Constraints for Learning Linear DAGs

在本文中,我们研究了稀疏性和DAG约束在线性高斯和非高斯情况下学习DAG模型的渐近作用,并研究了它们在有限样本方案中的有用性。

1507

Cream of the Crop: Distilling Prioritized Paths For One-Shot Neural Architecture Search

为了减轻这个问题,我们提出一种简单而有效的体系结构提纯方法。

1508

Fair Multiple Decision Making Through Soft Interventions

在本文中,我们提出了一种学习多个分类器并同时实现所有分类器公平性的方法,方法是将每个决策模型视为一种软干预,并根据干预后的分布来推断损失函数和公平性约束。

1509

Representation Learning for Integrating Multi-domain Outcomes to Optimize Individualized Treatment

为了应对这些挑战,我们提出了一个集成的学习框架,该框架可以同时学习患者的潜在精神状态并为每个人推荐最佳治疗方法。

1510

Learning to Play No-Press Diplomacy with Best Response Policy Iteration

们提出了一个简单而有效的近似最佳响应算子,该算子旨在处理大型组合动作空间和同时移动。

1511

Inverse Learning of Symmetries

们建议使用由两个潜在子空间组成的模型学习对称变换,其中第一个子空间捕获目标,第二个子空间捕获剩余的不变信息。

1512

DiffGCN: Graph Convolutional Networks via Differential Operators and Algebraic Multigrid Pooling

这项工作中,我们从有限差分和代数多重网格框架的启发下,提出了用于图卷积,池化和池化的新颖方法。

1513

Distributed Newton Can Communicate Less and Resist Byzantine Workers

们提出了一种迭代近似牛顿型算法,在该算法中,工作计算机每次迭代与中央计算机通信¥emph {仅一次}

1514

Efficient Nonmyopic Bayesian Optimization via One-Shot Multi-Step Trees

在本文中,我们提供了通用的多步超前贝叶斯优化的第一个有效实现,它被表述为多步方案树中的一系列嵌套优化问题。

1515

Effective Diversity in Population Based Reinforcement Learning

在本文中,我们介绍了一种同时优化总体中所有成员的方法。

1516

Elastic-InfoGAN: Unsupervised Disentangled Representation Learning in Class-Imbalanced Data

们提出了一种新颖的无监督生成模型,该模型学习从类不平衡数据的其他低层方面解开对象身份。

1517

Direct Policy Gradients: Direct Optimization of Policies in Discrete Action Spaces

们展示了如何结合这些技术来产生一种强化学习算法,该算法通过找到优化随机目标的轨迹来近似策略梯度。

1518

Hybrid Models for Learning to Branch

这项工作中,我们提出两个关键问题。首先,在只有CPU可用的更现实的设置中,GNN模型是否仍然具有竞争力?其次,我们是否可以设计出一种替代的计算便宜的模型,该模型保留GNN构的预测能力?

1519

WoodFisher: Efficient Second-Order Approximation for Neural Network Compression

们的工作考虑了这个问题,检查了现有方法的准确性,并提出了一种称为WoodFisher的方法来计算真实有效的逆黑森州估计。

1520

Bi-level Score Matching for Learning Energy-based Latent Variable Models

本文提出了一种双层评分匹配(BiSM)方法,通过将SM重新定义为双层优化问题来学习具有通用结构的EBLVM

1521

Counterfactual Contrastive Learning for Weakly-Supervised Vision-Language Grounding

在本文中,我们提出了一种新颖的反事实相反学习CCL),以在反事实正面和负面结果之间发展足够的对比训练,这是基于健壮和破坏性的反事实转换的。

1522

Decision trees as partitioning machines to characterize their generalization properties

们介绍了分区功能的概念,并将其与增长功能和VC维度相关联。

1523

Learning to Prove Theorems by Learning to Generate Theorems

为了解决这个限制,我们建议学习一种神经发生器,该神经发生器可以自动综合定理和证明,以训练定理证明者。

1524

3D Self-Supervised Methods for Medical Imaging

这项工作中,我们利用了这些技术,并以代理任务的形式为5种不同的自我监督方法提出了3D版本。

1525

Bayesian filtering unifies adaptive and non-adaptive neural network optimization methods

们将神经网络优化问题表述为贝叶斯过滤,其中观测值是反向传播的梯度。

1526

Worst-Case Analysis for Randomly Collected Data

们引入了一种统计估计的框架,该框架利用了有关如何收集样本的知识,但没有对数据值进行分布假设。

1527

Truthful Data Acquisition via Peer Prediction

们考虑购买用于机器学习或统计估计的数据的问题。

1528

Learning Robust Decision Policies from Observational Data

在本文中,我们开发了一种用于学习策略的方法,该方法可在指定级别上减少成本分配的尾巴,此外,还为每个决策的成本提供统计上有效的界限。

1529

Byzantine Resilient Distributed Multi-Task Learning

在本文中,我们提出了一种用于拜占庭式弹性分布式多任务学习的方法。

1530

Reinforcement Learning in Factored MDPs: Oracle-Efficient Algorithms and Tighter Regret Bounds for the Non-Episodic Setting

们为FMDP提出了两种接近最优和预言高效的算法。

1531

Improving model calibration with accuracy versus uncertainty optimization

们提出一种优化方法,该方法利用准确性和不确定性之间的关系作为不确定性校准的基础。

1532

The Convolution Exponential and Generalized Sylvester Flows

本文介绍了一种通过采用线性变换的指数来构建线性流的新方法。

1533

An Improved Analysis of Stochastic Gradient Descent with Momentum

这项工作中,我们表明在强凸和非凸设置下,对于平滑目标,SGDM的收敛速度都与SGD样快。

1534

Precise expressions for random projections: Low-rank approximation and randomized Newton

们利用随机矩阵频谱分析的最新发展来开发新技术,该技术为通过草图绘制获得的随机投影矩阵的期望值提供可证明的准确表达式。

1535

The MAGICAL Benchmark for Robust Imitation

本文介绍了MAGICAL基准套件,它可以通过量化对IL算法在实践中可能会遇到的各种分布偏移的鲁棒性,来对泛化进行系统的评估。

1536

X-CAL: Explicit Calibration for Survival Analysis

们开发了显式校准(X-CAL),它将D-CALIBRATION变成可微分的目标,该目标可与最大似然估计和其他目标一起用于生存模型。

1537

Decentralized Accelerated Proximal Gradient Descent

在本文中,我们研究了具有非光滑正则项的分散组合优化问题。

1538

Making Non-Stochastic Control (Almost) as Easy as Stochastic

在本文中,我们表明,即使在更为通用的非随机控制模型中,该系统由¥emph {任意对抗}噪声¥citep {agarwal2019online}驱动,也可以获得相同的遗憾率(针对适当的基准)。

1539

BERT Loses Patience: Fast and Robust Inference with Early Exit

在本文中,我们提出了基于耐心的提前退出,这是一种直接但有效的推理方法,可以用作即插即用技术,以同时提高预训练语言模型(PLM)的效率和鲁棒性。

1540

Optimal and Practical Algorithms for Smooth and Strongly Convex Decentralized Optimization

们针对此分散优化问题提出了两种新算法,并为其配备了复杂性保证。

1541

BAIL: Best-Action Imitation Learning for Batch Deep Reinforcement Learning

们提出了一种新的算法,即最佳动作模仿学习(BAIL),该算法力求简单和高性能。

1542

Regularizing Towards Permutation Invariance In Recurrent Models

们显示RNN可以针对排列不变性进行正则化,并且与非递归体系结构相比,这可以生成紧凑的模型。

1543

What Did You Think Would Happen? Explaining Agent Behaviour through Intended Outcomes

们围绕预期结果的概念,提出了一种新的形式的强化学习解释。

1544

Batch normalization provably avoids ranks collapse for randomly initialised deep networks

这项工作中,我们强调了一个事实,即批量标准化是避免线性和ReLU络等级下降的有效策略。

1545

Choice Bandits

们提出了一种针对选择强盗的算法,称为Winner Beats AllWBA),在所有这些选择模型下均具有依赖于分布的$ O¥log T$遗憾。

1546

What if Neural Networks had SVDs?

们提出了一种足够快的算法来加快几个矩阵运算的速度。

1547

A Matrix Chernoff Bound for Markov Chains and Its Application to Co-occurrence Matrices

们证明了通过常规(非周期性和不可约)有限马尔可夫链采样的矩阵值随机变量之和的Chernoff边界。

1548

CoMIR: Contrastive Multimodal Image Representation for Registration

们提出了对比编码来学习共享的密集图像表示,称为CoMIR对比多模态图像表示)。

1549

Ensuring Fairness Beyond the Training Data

这项工作中,我们开发的分类器不仅在训练分布方面合理,而且在训练样本加权扰动的一类分布上也很公平。

1550

How do fair decisions fare in long-term qualification?

这项工作中,我们研究了在部分观察到的马尔可夫决策问题情况下的人口资格和算法决策的动力学。

1551

Pre-training via Paraphrasing

们介绍MARGE这是一种预先训练的序列到序列模型,它是在无监督的多语言多文档释义目标下学习的。

1552

GCN meets GPU: Decoupling ?When to Sample? from ?How to Sample?

过将采样频率与采样策略脱钩,我们提出了LazyGCN这是一个通用而有效的框架,可以与任何采样策略集成,以大大缩短培训时间。

1553

Continual Learning of a Mixed Sequence of Similar and Dissimilar Tasks

本文提出了一种在同一网络中学习两种任务类型的技术。

1554

All your loss are belong to Bayes

在本文中,我们依赖于适当的复合损失的更广泛的观点以及信息几何,源函数的最新构造,其拟合缓解了规范链接所面临的约束。

1555

HAWQ-V2: Hessian Aware trace-Weighted Quantization of Neural Networks

这里,我们介绍解决这些缺点的HAWQ-V2对于(i),我们从理论上证明正确的灵敏度度量是平均Hessian线,而不只是顶部的Hessian特征值。对于(ii),我们开发了一种基于Pareto边界的方法,无需任何人工干预即可自动选择不同层的位精度。对于(iii),我们开发了第一个基于Hessian的混合精度激活量化分析,这对于对象检测非常有益。

1556

Sample-Efficient Reinforcement Learning of Undercomplete POMDPs

特别是,我们提出了一种样本有效的OOM-UCB算法,用于情节有限不完全POMDP,其中观察数大于潜在状态数,并且探索对于学习至关重要,因此可将我们的结果与先前的研究区分开。

1557

Non-Convex SGD Learns Halfspaces with Adversarial Label Noise

们研究了在分布特定的PAC模型中不可知论地学习同质半空间的问题。

1558

A Tight Lower Bound and Efficient Reduction for Swap Regret

此外,我们提出了一种计算有效的归约方法,可将无外部后悔算法转换为无交换后悔算法。

1559

DisCor: Corrective Feedback in Reinforcement Learning via Distribution Correction

在本文中,我们研究了基于自举的Q习的RL方法如何遭受函数逼近和用于训练Q函数的数据分布之间的病理相互作用:在标准监督学习下,在线数据收集应引起纠正性反馈,其中新数据可纠正旧预测中的错误。

1560

OTLDA: A Geometry-aware Optimal Transport Approach for Topic Modeling

们提供了一个最佳的运输框架,用于从文本数据中学习主题。

1561

Measuring Robustness to Natural Distribution Shifts in Image Classification

们研究了当前ImageNet模型对于数据集中自然变化引起的分布变化的鲁棒性。

1562

Can I Trust My Fairness Metric? Assessing Fairness with Unlabeled Data and Bayesian Inference

们提出了一个通用的贝叶斯框架,与仅基于标记数据的方法相比,该框架可以用未标记的数据扩充标记的数据,以产生更准确且方差较小的估计。

1563

RandAugment: Practical Automated Data Augmentation with a Reduced Search Space

这项工作中,我们重新考虑了设计自动化数据增强策略的过程。

1564

Asymptotic normality and confidence intervals for derivatives of 2-layers neural network in the random features model

们显示,在可能的非线性扰动下,具有高斯特征的线性回归响应中具有Lipschitz激活函数的环境中,在观察到的数据上,经过训练的NN导数的加权平均值是渐近正态的。

1565

DisARM: An Antithetic Gradient Estimator for Binary Latent Variables

们表明,可以通过分析整合增强过程引入的随机性来改善ARM,从而保证大幅减少方差。我们的估算器DisARM易于实现,并且具有与ARM相同的计算成本。

1566

Variational Inference for Graph Convolutional Networks in the Absence of Graph Data and Adversarial Settings

们提出了一个框架,该框架可将图卷积网络(GCN)的功能提升到没有输入图的情况下,并提高其对抗对抗攻击的鲁棒性。

1567

Supervised Contrastive Learning

这项工作中,我们将自我监督的批量对比方法扩展到完全监督的设置,从而使我们能够有效利用标签信息。

1568

Learning Optimal Representations with the Decodable Information Bottleneck

们提出了可分解信息瓶颈(DIB),它从所需预测族的角度考虑了信息保留和压缩。

1569

Meta-trained agents implement Bayes-optimal agents

受理论计算机科学思想的启发,我们表明,在一个智能体系统可以近似模拟另一个智能体系统的意义上,元学习和贝叶斯最优智能体不仅行为相似,而且甚至共享相似的计算结构。

1570

Learning Agent Representations for Ice Hockey

们通过玩家生成框架引入了一种新颖的玩家表示形式,其中变体编码器将带有潜在变量的玩家信息嵌入其中。

1571

Weak Form Generalized Hamiltonian Learning

们给出了一种学习一组给定的噪声时间序列测量值的常微分方程的广义哈密顿分解的方法。

1572

Neural Non-Rigid Tracking

们介绍了一种新颖的,端到端可学习的,可区分的非刚性跟踪器,该跟踪器通过学习的鲁棒优化实现了最新的非刚性重建。

1573

Collegial Ensembles

这项工作中,我们研究了通过集成实现的一种超参数化形式,其中我们将大学集成(CE)定义为具有相同架构的多个独立模型的集合,并训练为一个模型。

1574

ICNet: Intra-saliency Correlation Network for Co-Saliency Detection

在本文中,我们提出了一个显着性内部相关网络(ICNet),以从任何现成的SOD方法预测的单个图像显着性图(SISM)中提取显着性内部提示,并通过相关技术获得显着性内部提示。

1575

Improved Variational Bayesian Phylogenetic Inference with Normalizing Flows

在本文中,我们提出了一种新型的VBPI,即VBPI-NF这是通过深度学习技术实现系统发育后验估计的第一步。

1576

Deep Metric Learning with Spherical Embedding

在本文中,我们首先研究了嵌入范数对具有角度距离的深度度量学习的影响,然后提出了球形嵌入约束(SEC)来规范范数的分布。

1577

Preference-based Reinforcement Learning with Finite-Time Guarantees

如果偏好是随机的,并且偏好概率与隐藏的奖励值有关,那么我们将介绍适用于PbRL的算法,无论有无模拟器,该算法都能够以最高概率识别出精度高达varepsilon $的最佳策略。

1578

AdaBelief Optimizer: Adapting Stepsizes by the Belief in Observed Gradients

们提出AdaBelief可以同时实现三个目标:自适应方法中的快速收敛,SGD中的良好通用性以及训练稳定性。

1579

Interpretable Sequence Learning for Covid-19 Forecasting

们提出了一种新颖的方法,它将机器学习集成到隔室疾病模型(例如SEIR)中,以预测COVID-19进展。

1580

Off-policy Policy Evaluation For Sequential Decisions Under Unobserved Confounding

这种不那么悲观的单决策混杂模型下,我们提出了一种基于最小损失的高效计算最坏情况范围的程序,并证明了其统计一致性。

1581

Modern Hopfield Networks and Attention for Immune Repertoire Classification

这项工作中,我们提出了一种新颖的方法DeepRC该方法将类似变压器的注意力(或等效的现代Hopfield络)集成到用于大规模MIL的深度学习架构中,例如免疫库分类。

1582

One Ring to Rule Them All: Certifiably Robust Geometric Perception with Outliers

们提出了第一个通用和实用的框架来设计可验证的算法,以在存在大量异常值的情况下实现鲁棒的几何感知。

1583

Task-Robust Model-Agnostic Meta-Learning

们提出了一种解决所提出的最小-最大问题的算法,并证明了它以凸中的$¥mathcal {O}1 /¥epsilon ^ 2$的最优速率收敛到$¥epsilon $的准确点。设置,并以非凸的$¥mathcal {O}¥max¥{1 /¥epsilon ^ 51 /¥delta ^ 5¥}$的速率到$¥epsilon¥delta$稳点设置。

1584

R-learning in actor-critic model offers a biologically relevant mechanism for sequential decision-making

这项工作中,我们建立了可解释的深层行为批评模型,以显示R-一种平衡短期和长期奖励的强化学习(RL)方法-现实生活中的特工学习留住-或保留决策。

1585

Revisiting Frank-Wolfe for Polytopes: Strict Complementarity and Sparsity

然后,我们重新研究沃尔夫经典著作¥cite {Wolfe1970}中已经考虑过的严格互补假设,并证明在这种情况下,带有步距和寻线的Frank-Wolfe方法线性收敛,且速率仅明显取决于在最佳面的尺寸上,因此在最佳解决方案稀疏的情况下提供了显着的改进。

1586

Fast Convergence of Langevin Dynamics on Manifold: Geodesics meet Log-Sobolev

们的工作概括了¥cite {VW19}结果,其中f是在流形M而不是Rn上定义的。

1587

Tensor Completion Made Practical

在本文中,我们介绍了交变极小化的新变体,其反过来是受了解如何指导在矩阵设置中指导交变极小化的收敛的进度度量如何适应张量设置的启发。

1588

Optimization and Generalization Analysis of Transduction through Gradient Boosting and Application to Multi-scale Graph Neural Networks

这项研究中,我们推导了包含多尺度GNN转导学习算法的优化和泛化保证。

1589

Content Provider Dynamics and Coordination in Recommendation Ecosystems

这项工作中,我们使用博弈论的视角来研究内容创作的动力。

1590

Almost Surely Stable Deep Dynamics

们介绍了一种从观测数据中学习可证明稳定的基于深度神经网络的动态模型的方法。

1591

Experimental design for MRI by greedy policy search

们建议通过策略梯度方法学习加速MRI实验设计策略。

1592

Expert-Supervised Reinforcement Learning for Offline Policy Learning and Evaluation

为了克服这些问题,我们提出了一种专家监督的RLESRL)框架,该框架使用不确定性量化进行离线策略学习。

1593

ColdGANs: Taming Language GANs with Cautious Sampling Strategies

这项工作中,我们展示了最流行的采样方法如何导致语言GAN的不稳定训练。

1594

Hedging in games: Faster convergence of external and swap regrets

们考虑玩家运行对冲算法或其乐观变体¥cite {syrgkanis2015fast}进行T轮重复n动作游戏的设置。

1595

The Origins and Prevalence of Texture Bias in Convolutional Neural Networks

过在训练时采取较少侵略性的随机作物并应用简单自然的增强(颜色失真,噪点和模糊),我们训练出的模型可以在大多数时间通过形状对模糊图像进行分类,并且在分布失调测试中的表现优于基线套。

1596

Time-Reversal Symmetric ODE Network

在本文中,我们提出了一种新颖的损失函数,该函数可衡量我们的常微分方程(ODE)网络如何满足这种时间反转对称性。它由ODE络在向前和向后动力学之间的时间演变差异正式定义。

1597

Provable Overlapping Community Detection in Weighted Graphs

在本文中,我们提供了一种可证明的方法来检测加权图中的重叠社区,而无需明确地假设纯节点。

1598

Fast Unbalanced Optimal Transport on a Tree

这项研究首次从算法的角度研究了不平衡最优运输问题的时间复杂性。

1599

Acceleration with a Ball Optimization Oracle

许令人惊讶的是,这并不是最佳选择:我们设计了一种加速算法,该算法通过大约r ^ {-2/3}¥log1 / epsilonoracle查询来获得近似ε的最小化器,并给出匹配的下限。

1600

Avoiding Side Effects By Considering Future Tasks

为了减轻奖励设计者的负担,我们提出了一种算法,该算法可自动生成惩罚副作用的辅助奖励功能。

1601

Handling Missing Data with Graph Representation Learning

这里,我们提出了GRAPE这是一种用于特征插补和标签预测的框架。

1602

Improving Auto-Augment via Augmentation-Wise Weight Sharing

在本文中,我们将深入研究模型的增强训练的动力学。这激励我们设计基于增强明智权重共享(AWS)的功能强大且高效的代理任务,以一种优雅的方式形成快速而准确的评估过程。

1603

MMA Regularization: Decorrelating Weights of Neural Networks by Maximizing the Minimal Angles

受到著名的Tammes问题的启发,我们提出了一种新颖的多样性正则化方法来解决此问题,该方法通过最大化最小对角(MMA),使在超球面上分布的神经元或过滤器的归一化权重向量尽可能均匀。

1604

HRN: A Holistic Approach to One Class Learning

本文基于一种新颖的正则化提出了一种完全不同的方法,称为整体正则化(或H则化),它使系统能够从整体上考虑数据,而不会产生偏向某些特征的模型。

1605

The Generalized Lasso with Nonlinear Observations and Generative Priors

在本文中,我们研究了当未知的$ n $维信号处于带边界的$ k $维输入的$ L $ -Lipschitz连续生成模型的范围内时,从噪声非线性测量中估计信号的问题。

1606

Fair regression via plug-in estimator and recalibration with statistical guarantees

们研究在公平约束下学习最优回归函数的问题。

1607

Modeling Shared responses in Neuroimaging Studies through MultiView ICA

们为小组研究提出了一种新颖的MultiView独立成分分析(ICA)模型,其中,来自每个主题的数据被建模为共享独立来源和噪声的线性组合。

1608

Efficient Planning in Large MDPs with Weak Linear Function Approximation

们考虑使用线性值函数逼近且仅具有较弱要求的MDP中的规划问题:最优值函数的逼近误差小,以及一小部分核心态,其特征跨越其他状态。

1609

Efficient Learning of Generative Models via Finite-Difference Score Matching

为了提高计算效率,我们根据方向导数重写了SM标及其变体,并提出了一种通用策略来有效地逼近具有有限差(FD)的任意阶方向导数。

1610

Semialgebraic Optimization for Lipschitz Constants of ReLU Networks

们引入了一个半定程序设计层次结构,以估计多层深度神经网络的全局和局部Lipschitz常数。

1611

Linear-Sample Learning of Low-Rank Distributions

对于所有这些,我们表明学习$ k¥timesk $rank- $ r $,矩阵到归一化的$ L_1 $距离$¥epsilon $需要$¥Omega¥frac {kr} {¥epsilon ^ 2} $样本,并提出一种算法,该算法使用$ {¥cal O}¥frac {kr} {¥epsilon ^ 2}¥log ^ 2¥frac r¥epsilon$样本,高维数为线性数,并且几乎线性,通常较低。

1612

Transferable Calibration with Lower Bias and Variance in Domain Adaptation

在本文中,我们研究了DA校准中的开放性问题,由于域移位的共存和缺少目标标签,这一问题极具挑战性。

1613

Generalization bound of globally optimal non-convex neural network training: Transportation map estimation by infinite dimensional Langevin dynamics

们引入了一个新的理论框架来分析深度学习优化及其泛化错误。

1614

Online Bayesian Goal Inference for Boundedly Rational Planning Agents

这里,我们提出一种能够从最佳和非最佳动作序列在线推断代理目标的架构。

1615

BayReL: Bayesian Relational Learning for Multi-omics Data Integration

在本文中,我们开发了一种新颖的贝叶斯表示学习方法,该方法可以推断出跨多组学数据类型的关系交互。

1616

Weakly Supervised Deep Functional Maps for Shape Matching

此外,我们提出了一种新颖的框架,该框架设计用于完全到完全以及部分到完全的形状匹配,即使在完全监督的方法下,也可以在多个基准数据集上获得最先进的结果。

1617

Domain Adaptation with Conditional Distribution Matching and Generalized Label Shift

在本文中,我们提出了一个新的假设,即¥textit {广义标签移位}$¥glsa $),以提高针对不匹配标签分布的鲁棒性。

1618

Rethinking the Value of Labels for Improving Class-Imbalanced Learning

们从理论和经验上证明,班级不平衡的学习可以以半监督和自我监督的方式显着受益。

1619

Provably Robust Metric Learning

在本文中,我们证明了现有的度量学习算法(专注于提高清洁精度)会导致度量指标不及欧几里德距离。

1620

Iterative Deep Graph Learning for Graph Neural Networks: Better and Robust Node Embeddings

在本文中,我们提出了一个端到端的图学习框架,即¥textbf {I} terative¥textbf {D} eep¥textbf {G} raph¥textbf {L} earning¥alg),用于联合和迭代学习图结构和图嵌入。

1621

COPT: Coordinated Optimal Transport on Graphs

们介绍了COPT这是一种通过优化例程定义的图形之间的新颖距离度量,可以同时计算一对协调的最佳运输图。

1622

No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained Classification Problems

们提出了GEORGE,一种即使子类标签未知也可以测量和减轻隐藏分层的方法。

1623

Model Rubik?s Cube: Twisting Resolution, Depth and Width for TinyNets

本文旨在探索以最小的模型大小和计算成本获得深层神经网络的扭曲规则。

1624

Self-Adaptive Training: beyond Empirical Risk Minimization

在本文中,我们观察到模型预测可以极大地有益于训练过程:自适应训练显着减轻了过度拟合的问题,并提高了在随机和对抗性噪声下对ERM的概括性。

1625

Effective Dimension Adaptive Sketching Methods for Faster Regularized Least-Squares Optimization

们提出了一种新的基于素描的随机算法来求​​L2则化最小二乘问题。

1626

Near-Optimal Comparison Based Clustering

从理论上讲,我们的方法可以使用接近最佳数量的被动比较来准确地恢复种植的聚类。

1627

Multi-Task Temporal Shift Attention Networks for On-Device Contactless Vitals Measurement

们提出了一种基于视频和设备上的光学心肺生命体征测量方法。

1628

A new convergent variant of Q-learning with linear function approximation

这项工作中,我们提出了一组新颖的条件,通过提出两个时标变化,可以确保与线性函数近似的Q习概率1敛。

1629

TaylorGAN: Neighbor-Augmented Policy Update Towards Sample-Efficient Natural Language Generation

为了提高采样效率并减小REINFORCE的方差,我们提出了一种新方法TaylorGAN该方法通过非策略更新和一阶Taylor扩展来增加梯度估计。

1630

Neural Networks with Small Weights and Depth-Separation Barriers

在本文中,我们将重点放在前馈ReLU络上,并通过减少开放性问题和电路复杂性的自然证明障碍,证明了证明此类结果超过4美元的根本障碍。

1631

Untangling tradeoffs between recurrence and self-attention in artificial neural networks

这项工作中,我们对自注意力如何影响递归网络中的梯度传播进行了形式化分析,并证明当通过建立梯度规范的具体界限来捕获长期依赖性时,它可以减轻梯度消失的问题。

1632

Dual-Free Stochastic Decentralized Optimization with Variance Reduction

这项工作中,我们介绍了一种称为DVR的具有方差减少的分散式随机算法。

1633

Online Learning in Contextual Bandits using Gated Linear Networks

们介绍了一种新的且完全在线的上下文强盗算法,称为门控线性上下文强盗(GLCB)。

1634

Throughput-Optimal Topology Design for Cross-Silo Federated Learning

在本文中,我们使用最大加线性系统的理论来计算系统吞吐量(每时间单位的通信回合数),从而定义跨部门联合学习的拓扑设计问题。

1635

Quantized Variational Inference

们提出了量化变分推断,一种用于证据下界最小化的新算法。

1636

Asymptotically Optimal Exact Minibatch Metropolis-Hastings

在本文中,我们研究了¥emph {minibatch MH}方法,该方法改为使用子样本进行缩放。

1637

Learning Search Space Partition for Black-box Optimization using Monte Carlo Tree Search

在本文中,我们创造了将LaNAS扩展到其他领域的LA-MCTS

1638

Feature Shift Detection: Localizing Which Features Have Shifted via Conditional Distribution Tests

因此,我们首先将此问题的形式化定义为多个条件分布假设检验,并提出非参数和参数统计检验。

1639

Unifying Activation- and Timing-based Learning Rules for Spiking Neural Networks

这项工作中,我们对这两种方法进行了比较研究,并提出了一种将它们结合起来的新的监督学习方法。

1640

Space-Time Correspondence as a Contrastive Random Walk

本文提出了一种简单的自我监督方法,用于从原始视频中学习视觉对应关系的表示形式。

1641

The Flajolet-Martin Sketch Itself Preserves Differential Privacy: Private Counting with Minimal Space

们提出了一个$¥epsilon¥delta$-差分私有算法,该算法在$1¥pm¥gamma$的范围内近似$¥dist $,并且具有$ O¥sqrt {¥ln 1 /¥delta} /¥epsilon$,使用空格$ O¥ln¥lnu/¥gamma/¥gamma ^ 2$

1642

Exponential ergodicity of mirror-Langevin diffusions

受病态对数-凹面-凹面分布的抽样问题的影响,正如Zhang等人所述,我们对Langevin镜面扩散进行了干净的非渐近收敛分析。(2020)。

1643

An Efficient Framework for Clustered Federated Learning

们提出了一个称为迭代联合聚类算法(IFCA)的新框架,该框架交替估计用户的集群身份并通过梯度下降为用户集群优化模型参数。

1644

Autoencoders that don't overfit towards the Identity

在本文中,我们考虑线性自动编码器,因为它们有助于解析解,并且首先表明,去噪/丢包实际上仅在导致归一化L2范式正则化惩罚的程度上才防止过分拟合身份函数。

1645

Polynomial-Time Computation of Optimal Correlated Equilibria in Two-Player Extensive-Form Games with Public Chance Moves and Beyond

在本文中,我们通过证明在满足两个条件的游戏中,只要满足特定条件,就可以在多项式时间内计算出最佳的相关均衡,从而显着改善了复杂度阈值。

1646

Parameterized Explainer for Graph Neural Network

这项研究中,我们解决了这些关键挑战,并提出了PGExplainer,它是GNN的参数化解释器。

1647

Recursive Inference for Variational Autoencoders

在本文中,我们考虑了构建混合推理模型的另一种方法。

1648

Flexible mean field variational inference using mixtures of non-overlapping exponential families

但是,我表明,对于具有稀疏性先验的模型(例如尖峰和台阶),使用标准均值场变分推断可能无法产生明智的结果。幸运的是,当我证明指数族分布与非重叠支持的混合形成指数族时,可以纠正这种病理行为。

1649

HYDRA: Pruning Adversarially Robust Neural Networks

为了克服这一挑战,我们建议使修剪技术了解强大的培训目标,并让培训目标指导搜索与修剪有关的联系。

1650

NVAE: A Deep Hierarchical Variational Autoencoder

们提出了Nouveau VAENVAE),这是一种深度分层VAE,用于使用深度方向可分离卷积和批处理归一化来生成图像。

1651

Can Temporal-Di?erence and Q-Learning Learn Representation? A Mean-Field Theory

们旨在回答以下问题:当函数逼近器是神经网络时,关联的特征表示如何演化?

1652

What Do Neural Networks Learn When Trained With Random Labels?

在本文中,我们通过分析表明,对于卷积网络和完全连接网络,当使用随机标签进行训练时,网络参数和数据的主要成分之间会发生对齐。

1653

Counterfactual Prediction for Bundle Treatment

这项工作中,我们假设在束处理的基础上存在低维潜在结构。

1654

Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs

这里,我们介绍BetaE这是一个概率嵌入框架,用于回答KG上的任意FOL查询。

1655

Learning Disentangled Representations and Group Structure of Dynamical Environments

受到这种形式主义的启发,我们提出了一个基于群体表示理论的框架,用于学习围绕生成其演化的转换构建的动态环境的表示。

1656

Learning Linear Programs from Optimal Decisions

们提出了一种基于梯度的灵活框架,用于从最佳决策中学习线性程序。

1657

Wisdom of the Ensemble: Improving Consistency of Deep Learning Models

本文研究了在部署模型的定期再训练的情况下的模型行为,在该模型中,连续几代模型的输出可能与分配给同一输入的正确标签不一致。

1658

Universal Function Approximation on Graphs

这项工作中,我们提供了一个框架,用于在图同构类上构造通用函数逼近器。

1659

Accelerating Reinforcement Learning through GPU Atari Emulation

们介绍了CuLECUDA习环境),它是Atari习环境(ALE)的CUDA端口,用于开发深度强化算法。

1660

EvolveGraph: Multi-Agent Trajectory Prediction with Dynamic Relational Reasoning

在本文中,我们提出了一个通用的轨迹预测框架(名为EvolveGraph),该框架具有通过多个异构交互主体之间的潜在交互图进行显式关系结构识别和预测的功能。

1661

Comparator-Adaptive Convex Bandits

们研究了适应比较器范数的强凸优化方法,该主题之前仅针对其完整信息进行过研究。

1662

Model-based Reinforcement Learning for Semi-Markov Decision Processes with Neural ODEs

们使用神经常微分方程(ODE),在半马尔科夫决策过程(SMDP)的新型基于模型的强化学习(RL)框架中,提出了两种用于模拟连续时间动力学的优雅解决方案。

1663

The Adaptive Complexity of Maximizing a Gross Substitutes Valuation

在本文中,我们研究了在基数约束下最大化单调总替代函数的自适应复杂度。

1664

A Robust Functional EM Algorithm for Incomplete Panel Count Data

第一步,在完全不存在随机假设的情况下(MCAR),我们提出了一种简单而广泛适用的功能EM算法来估计计数过程的均值函数,这是行为科学家的主要兴趣所在。

1665

Graph Stochastic Neural Networks for Semi-supervised Learning

为了提高确定性分类函数的刚性和刚性,本文提出了一种新的框架,称为图随机神经网络(GSNN),其目的是通过同时学习一类函数(即随机函数)来对分类函数的不确定性进行建模。

1666

Compositional Zero-Shot Learning via Fine-Grained Dense Feature Composition

们提出了一种特征组合框架,该框架学习从训练样本中提取基于属性的特征,并将其组合以构造针对看不见的类的细粒度特征。

1667

A Benchmark for Systematic Generalization in Grounded Language Understanding

在本文中,我们引入了一个新的基准gSCAN,用于评估情境语言理解中的组合概括。

1668

Weston-Watkins Hinge Loss and Ordered Partitions

这项工作中,我们为多类分类引入了一种新颖的离散损失函数,即有序分区损失,并证明了针对该损失对WW铰链损失进行了校准。

1669

Reinforcement Learning with Augmented Data

为此,我们介绍了增强数据增强学习(RAD),这是一个简单的即插即用模块,可以增强大多数RL算法。

1670

Towards Minimax Optimal Reinforcement Learning in Factored Markov Decision Processes

设分解是已知的,我们提出两种基于模型的算法。

1671

Graduated Assignment for Joint Multi-Graph Matching and Clustering with Application to Unsupervised Graph Matching Network Learning

在本文中,我们采用分级分配过程进行迭代的软匹配和聚类,其中双向约束和聚类置信度分别由两个单独的退火参数进行调制。

1672

Estimating Training Data Influence by Tracing Gradient Descent

们引入了一种称为TracIn的方法,该方法可计算训练示例对模型做出的预测的影响。

1673

Joint Policy Search for Multi-agent Collaboration with Imperfect Information

在本文中,我们展示了一个新的术语¥emph {policy-change density},可以将游戏价值的全球变化分解为每个信息集上的本地政策变化。

1674

Adversarial Bandits with Corruptions: Regret Lower Bound and No-regret Algorithm

在本文中,我们考虑了一种扩展的设置,其中攻击者坐在环境和学习者之间,并且被赋予有限的预算,以破坏所选手臂的奖励。

1675

Beta R-CNN: Looking into Pedestrian Detection from Another Perspective

为了消除该问题,我们提出了一种基于2D Beta分布的新颖表示形式,称为Beta表示形式。

1676

Batch Normalization Biases Residual Blocks Towards the Identity Function in Deep Networks

们显示出这一关键优势的出现是因为,在初始化时,批标准化通过网络深度平方根的数量级上的标准化因子,将相对于跳过连接的残余分支缩小了比例。

1677

Learning Retrospective Knowledge with Reverse Reinforcement Learning

们提出一种反向强化学习(Reverse RL)方法,用于表示回顾性知识。

1678

Dialog without Dialog Data: Learning Visual Dialog Agents from VQA Data

这项工作中,我们研究一种称为没有对话框的对话框设置,该设置要求代理开发可视化的对话框模型,以适应新任务而无需语言级别的监督。

1679

GCOMB: Learning Budget-constrained Combinatorial Algorithms over Billion-sized Graphs

尽管现有技术主要集中在获取高质量解决方案上,但尚未充分解决对十亿个大小的图的可伸缩性。此外,对于许多实际情况而言,预算约束的影响尚待研究。在本文中,我们提出了一个名为GCOMB的框架来弥合这些差距。

1680

A General Large Neighborhood Search Framework for Solving Integer Linear Programs

们专注于求解整数程序,并将我们的方法立足于大型邻域搜索(LNS)范例,该范例反复选择变量的子集进行优化,而其余部分则保持不变。

1681

A Theoretical Framework for Target Propagation

们通过一种新颖的重构损失为该问题提供了第一个解决方案,它改进了反馈权重训练,同时通过允许从输出到每个隐藏层的直接反馈连接,同时引入了架构灵活性。

1682

OrganITE: Optimal transplant donor organ offering using an individual treatment effect

在本文中,我们介绍了OrganITE这是一种器官到患者的分配方法,该方法不仅根据自身对潜在结果的估计,还根据器官稀缺性来分配器官。

1683

The Complete Lasso Tradeoff Diagram

为了解决这个重要问题,我们提供了第一个完整的图,该图在随机设计下的线性稀疏状态下将Lasso可以渐近实现的所有FDR和功率对与其余对进行区分。

1684

On the universality of deep learning

本文表明,深度学习(即,由SGD训练的神经网络)可以在多项时间学习通过某种算法(包括奇偶校验)可以在多项时间学习的任何函数类。

1685

Regression with reject option and application to kNN

们研究了回归的问题,在该问题上人们可以放弃预测。我们将此框架称为带有拒绝选项的回归,作为带有拒绝选项的分类的扩展。

1686

The Primal-Dual method for Learning Augmented Algorithms

在本文中,我们扩展了用于在线算法的原始对偶方法,以便合并将在线算法告知下一步操作的预测。

1687

FLAMBE: Structural Complexity and Representation Learning of Low Rank MDPs

这项工作着重于表示学习的问题:我们如何学习这些特征?

1688

A Class of Algorithms for General Instrumental Variable Models

这项工作中,我们提供了一种用于连续分布中因果关系界定的方法,利用基于梯度的方法的最新进展来优化计算上难以实现的目标函数。

1689

Black-Box Ripper: Copying black-box models using generative evolutionary algorithms

这种情况下,我们提出了一种师生框架,该框架可以将黑匣子(教师)模型提炼成具有最小准确性损失的学生模型。

1690

Bayesian Optimization of Risk Measures

们提出了一系列新颖的贝叶斯优化算法,它们利用目标函数的结构来大大提高采样效率。

1691

TorsionNet: A Reinforcement Learning Approach to Sequential Conformer Search

们提出TorsionNet这是一种在刚性转子近似下基于强化学习的有效顺序适形搜索技术。

1692

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

在本文中,我们为辐射场提出了一种生成模型,该模型最近被证明可成功用于单个场景的新颖视图合成。

1693

PIE-NET: Parametric Inference of Point Cloud Edges

们引入了一种端到端的可学习技术,以可靠地识别3D点云数据中的特征边缘。

1694

A Simple Language Model for Task-Oriented Dialogue

SimpleTOD是一种面向任务的对话的简单方法,它使用针对所有子任务训练的单一因果语言模型,将其重铸为单个序列预测问题。

1695

A Continuous-Time Mirror Descent Approach to Sparse Phase Retrieval

们分析了应用于稀疏相位检索的连续时间镜像下降,这是从一组仅幅度测量中恢复稀疏信号的问题。

1696

Confidence sequences for sampling without replacement

们提供了一套工具,可用于为$¥theta ^¥star $设计¥textit {confidence sequence}CS)。

1697

A mean-field analysis of two-player zero-sum games

为了解决此限制,我们将混合策略参数化为粒子的混合物,并使用梯度下降-上升来更新其位置和权重。

1698

Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason Over Implicit Knowledge

这项工作中,我们提供了第一个证明,即可以训练LM结合隐含的,预训练的知识和显式的自然语言陈述来可靠地执行系统推理。

1699

Pipeline PSRO: A Scalable Approach for Finding Approximate Nash Equilibria in Large Games

们引入了流水线PSROP2SRO),这是第一种基于PSRO的可扩展方法,用于在大型零和不完美信息游戏中查找近似Nash均衡。

1700

Improving Sparse Vector Technique with Renyi Differential Privacy

在本文中,我们从仁义差异隐私的角度重新审视了SVT这带来了新的隐私界限,新的理论见解和SVT算法的新变体。

1701

Latent Template Induction with Gumbel-CRFs

具体而言,我们提出了一种Gumbel-CRF,即使用宽松的前向滤波后向采样(FFBS)方法CRF样算法进行的连续放松。

1702

Instance Based Approximations to Profile Maximum Likelihood

在本文中,我们提供了一种新的高效算法,用于近似计算轮廓最大似然(PML)分布,这是对称属性估计中的重要部分。

1703

Factorizable Graph Convolutional Networks

在本文中,我们介绍了一种新颖的图卷积网络(GCN),称为可分解图卷积网络(FactorGCN),它可以明确解开图中编码的这种纠缠关系。

1704

Guided Adversarial Attack for Evaluating and Enhancing Adversarial Defenses

这项工作中,我们为标准损失引入了一个松弛项,该松弛项可找到更合适的梯度方向,提高攻击效率并导致更有效的对抗训练。

1705

A Study on Encodings for Neural Architecture Search

这项工作中,我们提出了关于NAS的体系结构编码效果的第一个正式研究,包括理论基础和实证研究。

1706

Noise2Same: Optimizing A Self-Supervised Bound for Image Denoising

这项工作中,我们介绍了Noise2Same这是一种新颖的自我监督降噪框架。

1707

Early-Learning Regularization Prevents Memorization of Noisy Labels

们提出了一种新颖的框架,可在存在噪声注释的情况下通过深度学习进行分类。

1708

LAPAR: Linearly-Assembled Pixel-Adaptive Regression Network for Single Image Super-resolution and Beyond

本文通过提出一个线性组装的像素自适应回归网络(LAPAR)来解决这一难题,该网络将直接LR映射到HR映射学习,转化为基于多个预定义滤波器基的字典的线性系数回归任务。

1709

Learning Parities with Neural Networks

在本文中,我们朝着显示固有非线性模型的可精简性迈出了一步。

1710

Consistent Plug-in Classifiers for Complex Objectives and Constraints

对于约束分类问题,我们提出了统计上一致的算法,其中目标(例如F度量,G值)和约束(例如人口统计奇偶性,覆盖率)由混淆矩阵的一般函数定义。

1711

Movement Pruning: Adaptive Sparsity by Fine-Tuning

们建议使用运动修剪,这是一种更简单,确定性的一阶权重修剪方法,它更适合于预训练的模型微调。

1712

Sanity-Checking Pruning Methods: Random Tickets can Win the Jackpot

在本文中,我们基于几种最近的非结构化修剪方法对上述信念进行了完备性检查,令人惊讶地发现:(1)一组旨在寻找随机初始化网络(我们称为初始票证)的良好子网络的方法。 ,几乎不会利用培训数据中的任何信息;(2对于通过这些方法获得的修剪网络,在保持每层保留权重总数不变的同时,随机更改每一层的保留权重不会影响最终性能。

1713

Online Matrix Completion with Side Information

们给出了一个在线算法,并证明了带有辅助信息的在线二进制矩阵完成的新颖错误和后悔界限。

1714

Position-based Scaled Gradient for Model Quantization and Pruning

们提出了基于位置的按比例缩放的梯度(PSG),该梯度根据权重矢量的位置对梯度进行缩放以使其对压缩更友好。

1715

Online Learning with Primary and Secondary Losses

们研究具有主要和次要损失的在线学习问题。

1716

Graph Information Bottleneck

这里,我们介绍图信息瓶颈(GIB),这是一种信息理论原理,可以最佳地平衡学习到的图结构数据表示形式的表现力和健壮性。

1717

The Complexity of Adversarially Robust Proper Learning of Halfspaces with Agnostic Noise

们研究了独立于分布的不可知PAC模型中对半空间的对抗性强健的正确学习的计算复杂性,重点是Lp扰动。

1718

Adaptive Online Estimation of Piecewise Polynomial Trends

们考虑了非平稳随机优化的框架[Besbes等。[2015]具有平方误差损失和噪声梯度反馈,其中研究了在线学习者对时变比较器序列的动态后悔。

1719

RNNPool: Efficient Non-linear Pooling for RAM Constrained Inference

在本文中,我们介绍了RNNPool这是一种基于递归神经网络(RNN)的新型池化运算符,该运算符可有效地在大块图像上聚合特征并快速下采样激活图。

1720

Agnostic Learning with Multiple Objectives

相反,我们提出了¥emph {具有多个目标的不可知论学习}$¥almo $)的新框架,其中针对基本目标混合中的¥emph {any}权重优化了模型。

1721

3D Multi-bodies: Fitting Sets of Plausible 3D Human Models to Ambiguous Image Data

们建议可以通过合适的3D模型(例如用于人类的SMPL对可能的身体形状和姿势进行参数化,从而更有效地对模糊度进行建模。

1722

Auto-Panoptic: Cooperative Multi-Component Architecture Search for Panoptic Segmentation

这项工作中,我们提出了一个高效,协作且高度自动化的框架,以便基于流行的一次性网络架构搜索(NAS),在统一的全景分割流程中同时搜索所有主要组件,包括骨干,分割分支和特征融合模块。范例。

1723

Differentiable Top-k with Optimal Transport

为了解决这个问题,我们提出了一个平滑的近似值,即SOFT(基于可伸缩最优传输的可分配差分)top-k运算符。

1724

Information-theoretic Task Selection for Meta-Reinforcement Learning

们提出了一种基于信息论的任务选择算法,该算法优化了用于元RL训练的任务集,而不管它们是如何生成的。

1725

A Limitation of the PAC-Bayes Framework

在本手稿中,我们提出了PAC-Bayes框架的局限性。

1726

On Completeness-aware Concept-Based Explanations in Deep Neural Networks

在本文中,我们研究了基于概念的深度神经网络(DNN)的可解释性。

1727

Stochastic Recursive Gradient Descent Ascent for Stochastic Nonconvex-Strongly-Concave Minimax Problems

在本文中,我们提出了一种称为随机递归梯度下降下降(SREDA)的新方法,该方法可以使用方差减少来更有效地估算梯度。

1728

Why Normalizing Flows Fail to Detect Out-of-Distribution Data

们调查为什么归一化流量在OOD检测中表现不佳。

1729

Explaining Naive Bayes and Other Linear Classifiers with Polynomial Time and Delay

相反,我们表明,可以在对数线性时间内完成对NBC的一次PI释的计算,并且相同的结果也适用于更通用的线性分类器

1730

Unsupervised Translation of Programming Languages

在本文中,我们建议在无监督机器翻译中利用最新方法来训练完全无监督的神经编译器。

1731

Adversarial Style Mining for One-Shot Unsupervised Domain Adaptation

为此,我们提出了一种新颖的对抗式风格挖掘方法,该方法将风格传递模块和特定于任务的模块组合成对抗式方式。

1732

Optimally Deceiving a Learning Leader in Stackelberg Games

在本文中,我们通过证明跟随者始终有可能针对领导者与跟随者之间学习互动的各种情况有效地计算(接近)最优回报,从而填补了这一空白。

1733

Online Optimization with Memory and Competitive Control

本文提出了具有竞争性的算法,用于一类新颖的在线记忆优化问题。

1734

IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method

们介绍了一个在局部优化是光滑且强凸的分散优化设置下设计原始方法的框架。

1735

Evolving Graphical Planner: Contextual Global Planning for Vision-and-Language Navigation

在本文中,我们介绍了Evolving Graphical PlannerEGP),这是一个模块,可以根据原始的感官输入对导航进行全局规划。

1736

Learning from Failure: De-biasing Classifier from Biased Classifier

基于这些观察,我们通过同时训练一对神经网络,提出了一种基于故障的去偏方案。

1737

Likelihood Regret: An Out-of-Distribution Detection Score For Variational Auto-encoder

在本文中,我们观察到,当这些方法应用于基于变分自动编码器(VAE)的生成模型时,其中某些方法会失败。

1738

Deep Diffusion-Invariant Wasserstein Distributional Classification

在本文中,我们提出了一种新颖的分类方法,称为深度扩散不变Wasserstein分布分类(DeepWDC)。

1739

Finding All $\epsilon$-Good Arms in Stochastic Bandits

们引入了两种算法来克服这些问题,并在《纽约客》字幕比赛收集的大规模众包数据集(2.2美元/百万美元)以及测试数百种可能的癌症药物的数据集上证明了它们的出色经验性能。

1740

Meta-Learning through Hebbian Plasticity in Random Networks

这种生物学机制的启发,我们提出了一种搜索方法,而不是直接优化神经网络的权重参数,而仅搜索特定于突触的Hebbian习规则,这些规则使网络可以在代理的生命周期内不断地自我组织其权重。

1741

A Computational Separation between Private Learning and Online Learning

们证明,假设存在单向函数,即使对于具有多项式样本复杂度的一般纯私有学习者来说,这样的有效转换也是不可能的。

1742

Top-KAST: Top-K Always Sparse Training

这项工作中,我们提出了Top-KAST,一种在整个训练过程中(前进和后退)都保持恒定稀疏性的方法。

1743

Meta-Learning with Adaptive Hyperparameters

而不是寻找更好的任务感知初始化,我们专注于MAML框架中的一个补充因素,即内循环优化(或快速适应)。

1744

Tight last-iterate convergence rates for no-regret learning in multi-player games

们研究了在多人游戏中为无悔学习算法获得最后迭代收敛速度的问题。

1745

Curvature Regularization to Prevent Distortion in Graph Embedding

为了解决该问题,我们提出曲率正则化,以增强用于嵌入歧管的平面度,从而防止变形。

1746

Perturbing Across the Feature Hierarchy to Improve Standard and Strict Blackbox Attack Transferability

们在深度神经网络(DNN图像分类器领域中考虑了基于黑盒转移的目标对抗攻击威胁模型。

1747

Statistical and Topological Properties of Sliced Probability Divergences

在本文中,我们旨在弥合这一差距,并得出切片概率散度的各种理论特性。

1748

Probabilistic Active Meta-Learning

这项工作中,我们通过使用概率潜在变量模型概念化学习者和主动的元学习设置,将基于先验经验的任务选择引入元学习算法中。

1749

Knowledge Distillation in Wide Neural Networks: Risk Bound, Data Efficiency and Imperfect Teacher

在本文中,我们从理论上分析了广泛的神经网络的知识提炼。

1750

Adversarial Attacks on Deep Graph Matching

本文提出了一种具有两种新颖攻击技术的对抗攻击模型,以扰动图结构并降低深度图匹配的质量:(1)内核密度估计方法用于估计和最大化节点密度,从而通过推动被攻击来推导不可察觉的扰动。在两个图中密集区域的节点,因此它们与许多邻居是无法区分的;(2)开发了一种基于元学习的投影梯度下降方法,以很好地选择攻击起点,并提高搜索性能以产生有效的扰动。

1751

The Generalization-Stability Tradeoff In Neural Network Pruning

们证明了这种一般化-稳定性的权衡存在于各种各样的修剪设置中,并提出了其原因的机制:修剪与噪声注入类似。

1752

Gradient-EM Bayesian Meta-Learning

贝叶斯元学习背后的关键思想是层次模型的经验贝叶斯推理。在这项工作中,在提出基于梯度电磁算法的变体之前,我们将该框架扩展为包括各种现有方法。

1753

Logarithmic Regret Bound in Partially Observable Linear Dynamical Systems

利用这种估计方法,我们提出了自适应控制在线学习(AdapOn),这是一种有效的强化学习算法,可以自适应地学习系统动力学并通过在线学习步骤不断更新其控制器。

1754

Linearly Converging Error Compensated SGD

在本文中,我们建议对具有任意压缩和延迟更新的分布式SGD变体进行统一分析。

1755

Canonical 3D Deformer Maps: Unifying parametric and non-parametric methods for dense weakly-supervised category reconstruction

们提出了Canonical 3D Deformer Map这是常见对象类别的3D形状的新表示形式,可以从独立对象的2D图像集合中学习。

1756

A Self-Tuning Actor-Critic Algorithm

在本文中,我们迈出了一步,通过使用元梯度通过元梯度下降自动在线自动调整超参数(Xu et al。,2018)。

1757

The Cone of Silence: Speech Separation by Localization

们方法的核心是一个在波形域中的深层网络,它在给定感兴趣的角度为θ±w / 2的情况下将源隔离开。和角窗尺寸w

1758

High-Dimensional Bayesian Optimization via Nested Riemannian Manifolds

在本文中,我们提议利用非欧几里得搜索空间的几何形状(通常在各种领域中出现),以学习保留结构的映射并优化低维潜在空间中BO获取功能。

1759

Train-by-Reconnect: Decoupling Locations of Weights from Their Values

为了评估我们的假设,我们提出了一种称为超前置换(LaPerm)的新颖方法,通过重新连接权重来训练DNN

1760

Learning discrete distributions: user vs item-level privacy

们研究了用用户级差分隐私来学习$ k $符号上的离散分布的基本问题。

1761

Matrix Completion with Quantified Uncertainty through Low Rank Gaussian Copula

本文提出了具有量化不确定性的缺失值归因的概率和可扩展框架。

1762

Sparse and Continuous Attention Mechanisms

本文从两个方向扩展了这项工作:首先,我们将alpha-entmax扩展到连续域,揭示了与Tsallis统计信息和变形的指数族的联系。其次,我们引入了连续域注意机制,为{1,2}中的alpha派生了有效的梯度反向传播算法。

1763

Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Detection

本文深入研究了以上三个基本要素的¥emph {representations}质量估计,分类和本地化。

1764

Learning by Minimizing the Sum of Ranked Range

这项工作中,我们介绍排名范围的总和(SoRR)作为形成学习目标的一般方法。

1765

Robust Deep Reinforcement Learning against Adversarial Perturbations on State Observations

们提出了状态对抗性马尔可夫决策过程(SA-MDP),以研究此问题的基本属性,并开发一种理论上有原则的策略正则化方法,可将其应用于包括深度确定性策略梯度(DDPG)在内的一大类DRL算法,近端策略优化(PPO)和深Q络(DQN),用于离散和连续动作控制问题。

1766

Understanding Anomaly Detection with Deep Invertible Networks through Hierarchies of Distributions and Features

们完善了以前对可逆生成网络异常检测失败的调查,并通过模型偏差和域先验的组合对其进行了清晰的解释:在任何自然图像数据集上进行训练时,卷积网络都会学习类似的低层特征分布,而这些低级特征支配可能性。

1767

Fair Hierarchical Clustering

在本文中,我们将此概念扩展到分层聚类,其目的是递归划分数据以优化特定目标。

1768

Self-training Avoids Using Spurious Features Under Domain Shift

们确定并分析了域偏移可能很大的一种特定设置,但是这些算法可证明行得通:某些虚假特征与源域中的标签相关,但与目标中的标签无关。

1769

Improving Online Rent-or-Buy Algorithms with Sequential Decision Making and ML Predictions

这项工作中,我们将在线租借或购买问题作为顺序决策问题进行研究。

1770

CircleGAN: Generative Adversarial Learning across Spherical Circles

们提出了一种新型的GAN鉴别器,通过学习使用球形圆的结构化超球面嵌入空间来提高生成样本的真实性和多样性。

1771

WOR and $p$'s: Sketches for $\ell_p$-Sampling Without Replacement

们为WOR {¥em $¥ell_p $}设计新颖的可组合草图,根据密钥频率的幂$ p¥in [0,2] $(或对于签名数据,更新总和)对密钥进行加权抽样。

1772

Hypersolvers: Toward Fast Continuous-Depth Models

们介绍了超解算器,设计用于以低开销解决ODE的神经网络以及理论上的准确性保证。

1773

Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable Neural Distribution Alignment

在本文中,我们提出了一种基于对数似然比统计和归一化流的新的分布对齐方法。

1774

Escaping the Gravitational Pull of Softmax

为了避免这些缺点,我们研究了另一种变换,即¥emph {escort}映射,该变换展示了更好的优化属性。

1775

Regret in Online Recommendation Systems

本文提出了一种在线环境下的推荐系统的理论分析,其中随着时间的流逝顺序向用户推荐项目。

1776

On Convergence and Generalization of Dropout Training

们研究具有整流线性单位(ReLU)激活的两层神经网络中的缺失。

1777

Second Order Optimality in Decentralized Non-Convex Optimization via Perturbed Gradient Tracking

在本文中,我们研究了在分散的环境中从鞍点逃逸并实现二阶最优性的问题,在这种分散性的环境中,一组代理协作以最小化其总体目标功能。

1778

Implicit Regularization in Deep Learning May Not Be Explainable by Norms

过证明存在自然矩阵分解问题,隐式正则化将所有范数(和准范数)推向无穷大,本论文以否定的方式解决了这个悬而未决的问题。

1779

POMO: Policy Optimization with Multiple Optima for Reinforcement Learning

们介绍了具有多个最优策略的策略优化(POMO),这是一种构建这种启发式求解器的端到端方法。

1780

Uncertainty-aware Self-training for Few-shot Text Classification

们提出一种方法,通过结合利用贝叶斯深度学习的最新进展的基础神经网络的不确定性估计来改善自我训练。

1781

Learning to Learn with Feedback and Local Plasticity

这项研究中,我们采用元学习来发现使用反馈连接和受生物学启发的本地学习规则进行学习的网络。

1782

Every View Counts: Cross-View Consistency in 3D Object Detection with Hybrid-Cylindrical-Spherical Voxelization

在本文中,我们提出了一个新颖的框架来统一和利用BEVRV的收益。

1783

Sharper Generalization Bounds for Pairwise Learning

在本文中,我们通过开发泛化边界来提供精细的稳定性分析,泛化边界的速度可以比现有结果快$¥sqrt {n} $倍,其中,$ n $样本量。

1784

A Measure-Theoretic Approach to Kernel Conditional Mean Embeddings

们提出了一种新的无算子,度量理论方法,将条件均值嵌入为随机变量,并在再生内核希尔伯特空间中获取值。

1785

Quantifying the Empirical Wasserstein Distance to a Set of Measures: Beating the Curse of Dimensionality

们考虑估计经验量度和一组概率量度之间的Wasserstein距离的问题,这些概率量度对函数类(假设类)的期望受到约束。

1786

Bootstrap Your Own Latent – A New Approach to Self-Supervised Learning

们介绍了Bootstrap Your Own LatentBYOL),这是一种用于自我监督的图像表示学习的新方法。

1787

Towards Theoretically Understanding Why Sgd Generalizes Better Than Adam in Deep Learning

这项工作旨在通过分析局部收敛行为来提供对这一概括差距的理解。

1788

RSKDD-Net: Random Sample-based Keypoint Detector and Descriptor

本文提出了基于随机样本的关键点检测器和描述符网络(RSKDD-Net),用于大规模点云注册。

1789

Efficient Clustering for Stretched Mixtures: Landscape and Optimality

为了克服这个问题,我们提出了一个非凸程序,该程序寻求仿射变换,以将数据转换为集中在-11附近的一维点云,此后聚类变得容易。

1790

A Group-Theoretic Framework for Data Augmentation

在本文中,我们开发了这样一个框架来解释数据扩充,即对整个组的轨道进行平均,从而使数据分布保持近似不变,并表明这会导致方差减少。

1791

The Statistical Cost of Robust Kernel Hyperparameter Turning

们考虑从假设超平方未知的一类内核中找到最佳插值的问题。

1792

How does Weight Correlation Affect Generalisation Ability of Deep Neural Networks?

本文研究了深度神经网络中权重相关的新概念,并讨论了其对网络泛化能力的影响。

1793

ContraGAN: Contrastive Learning for Conditional Image Generation

在本文中,我们提出了ContraGAN,它通过使用条件对比损失来考虑同一批中的多个图像嵌入之间的关系(数据与数据之间的关系)以及数据与类之间的关系。

1794

On the distance between two neural networks and the stability of learning

本文将参数距离与一类广泛的非线性合成函数的梯度分解相关联。

1795

A Topological Filter for Learning with Label Noise

为了解决这个问题,本文提出了一种过滤标签噪声的新方法。

1796

Personalized Federated Learning with Moreau Envelopes

为了解决这个问题,我们提出了一种使用Moreau信封作为客户的正则损失函数的个性化FLpFedMe)算法,该算法有助于在针对个性化FL的二级问题中将个性化模型优化与全局模型学习分离。

1797

Avoiding Side Effects in Complex Environments

在玩具环境中,可达到的效用保护(AUP)通过惩罚实现随机生成目标的能力的变化来避免副作用。我们将这种方法扩展到基于Conway的《生命游戏》的大型随机生成的环境。

1798

No-regret Learning in Price Competitions under Consumer Reference Effects

们研究了两个公司之间反复价格竞争的长期市场稳定性,其中消费者需求取决于公司的发布价格和称为参考价格的消费者价格预期。

1799

Geometric Dataset Distances via Optimal Transport

这项工作中,我们提出了另一种数据集之间距离的概念:(i)与模型无关,(ii)不涉及训练,(iii)可以比较数据集,即使它们的标签集完全不相交,并且(iv)具有扎实的理论立足点。

1800

Task-Agnostic Amortized Inference of Gaussian Process Hyperparameters

们介绍了一种在GP归和相关问题中识别内核超参数的方法,该方法回避了对代价高昂的边际可能性的需求。

1801

A novel variational form of the Schatten-$p$ quasi-norm

这里,我们提出并分析一种新颖的{¥it变型形式的Schatten- $ p $准范数}这在文献中首次被定义为$ p¥in0,1] $的任何连续值。并沿着分解矩阵的列解耦。

1802

Energy-based Out-of-distribution Detection

们建议使用能量评分的OOD检测统一框架。

1803

On the Loss Landscape of Adversarial Training: Identifying Challenges and How to Overcome Them

们分析了对抗训练对机器学习模型损失格局的影响。

1804

User-Dependent Neural Sequence Models for Continuous-Time Event Data

在本文中,我们将神经标记点过程模型的广泛类别扩展到潜在嵌入的混合,其中每个混合组件都对给定用户的特征进行建模。

1805

Active Structure Learning of Causal DAGs via Directed Clique Trees

这项工作中,我们为单节点干预措施制定了一个¥textit {universal}下界,该界限确定了最大的集团是¥textit {always}结构学习的基本障碍。

1806

Convergence and Stability of Graph Convolutional Networks on Large Random Graphs

们通过分析随机图的标准模型上的行为来研究图卷积网络(GCN)的特性,其中节点由随机潜在变量表示,并且根据相似性内核绘制边缘。

1807

BoTorch: A Framework for Efficient Monte-Carlo Bayesian Optimization

们介绍BoTorch这是一种用于贝叶斯优化的现代编程框架,该框架结合了蒙特卡洛(MC)采集功能,新颖的样本平均逼近优化方法,自动微分和方差减少技术。

1808

Reconsidering Generative Objectives For Counterfactual Reasoning

为朝着更加灵活,可扩展和准确的ITE估算迈出的一步,我们提出了一种新颖的生成贝叶斯估算框架,该框架集成了表示学习,对抗匹配和因果估算。

1809

Robust Federated Learning: The Case of Affine Distribution Shifts

本文的主要目的是开发一种鲁棒的联合学习算法,该算法针对用户样本中的分布偏移可实现令人满意的性能。

1810

Quantile Propagation for Wasserstein-Approximate Gaussian Processes

们为高斯过程模型开发了一种新的近似推理方法,该方法克服了因放弃这些方便的分歧而引起的技术挑战。

1811

Generating Adjacency-Constrained Subgoals in Hierarchical Reinforcement Learning

在本文中,我们表明,可以通过使用邻接约束将高级动作空间从整个目标空间限制到当前状态的k步相邻区域,来有效地缓解此问题。

1812

High-contrast ?gaudy? images improve the training of deep neural network models of visual cortex

们提出自然图像的高对比度,二值化版本(称为艳丽的图像),以有效地训练DNN预测更高阶的视觉皮层反应。

1813

Duality-Induced Regularizer for Tensor Factorization Based Knowledge Graph Completion

为了解决这一挑战,我们提出了一种新颖的正则化程序,即¥textbf {DU}诱导的¥textbf {R} egul¥textbf {A} rizerDURA),它不仅可以有效改善现有模型的性能,而且广泛适用于各种方法。

1814

Distributed Training with Heterogeneous Data: Bridging Median- and Mean-Based Algorithms

为了克服这个差距,我们提供了一种新颖的梯度校正机制,该机制会用噪声干扰局部梯度,我们证明了该机制可证明可以弥补梯度平均值和中值之间的差距。

1815

H-Mem: Harnessing synaptic plasticity with Hebbian Memory Networks

这里,我们提出了Hebbian内存网络(H-Mems),这是一个简单的神经网络模型,它围绕受Hebbian可塑性影响的核心异质关联网络建立。

1816

Neural Unsigned Distance Fields for Implicit Function Learning

这项工作中,我们以可学习的输出表示形式为目标,该输出表示形式允许连续,高分辨率的任意形状的输出。

1817

Curriculum By Smoothing

在本文中,我们提出了一种基于课程的优雅方案,该方案使用抗锯齿或低通滤波器来平滑CNN的特征嵌入。

1818

Fast Transformers with Clustered Attention

为了解决这个问题,我们提出了聚类注意力,它不是为每个查询计算注意力,而是将查询分组为聚类并仅针对质心计算注意力。

1819

The Convex Relaxation Barrier, Revisited: Tightened Single-Neuron Relaxations for Neural Network Verification

们通过针对ReLU经元的新的紧缩凸松弛提高了基于传播和线性优化的神经网络验证算法的有效性。

1820

Strongly Incremental Constituency Parsing with Graph Neural Networks

在本文中,我们提出了一种新的过渡系统,称为attach-juxtapose

1821

AOT: Appearance Optimal Transport Based Identity Swapping for Forgery Detection

这项工作中,我们提供了一种新的身份交换算法,该算法在外观上存在很大差异,可用于人脸伪造检测。

1822

Uncertainty-Aware Learning for Zero-Shot Semantic Segmentation

在本文中,我们确定了这一挑战,并以一种新颖的框架应对了这一挑战,该框架学会了基于贝叶斯不确定性估计来区分噪声样本。

1823

Delta-STN: Efficient Bilevel Optimization for Neural Networks using Structured Response Jacobians

在本文中,我们在STN训练中诊断出一些微妙的病理。

1824

First-Order Methods for Large-Scale Market Equilibrium Computation

们开发了适合于大规模市场解决这些程序的简单一阶方法。

1825

Minimax Optimal Nonparametric Estimation of Heterogeneous Treatment Effects

在本文中,我们将HTE建模为两个不太平滑的基线函数之间的平滑非参数差异,并确定非参数HTE计的紧密统计范围作为协变量几何的函数。

1826

Residual Force Control for Agile Human Behavior Imitation and Extended Motion Synthesis

为了克服动态失配,我们提出了一种新的方法,即残余力控制(RFC),该方法通过将外部残余力添加到动作空间中来增强类人动物控制策略。

1827

A General Method for Robust Learning from Batches

们开发了一个从批次中进行稳健学习的通用框架,并确定了任意范围(包括连续域)的分布估计(尤其是分类)的限制。

1828

Not All Unlabeled Data are Equal: Learning to Weight Data in Semi-supervised Learning

在本文中,我们研究了如何对每个标记的示例使用不同的权重。

1829

Hard Negative Mixing for Contrastive Learning

在本文中,我们认为,对比学习的一个重要方面,即硬底片的影响,到目前为止已被忽略。

1830

MOReL: Model-Based Offline Reinforcement Learning

这项工作中,我们介绍了MOReL这是基于模型的离线RL的算法框架。

1831

Weisfeiler and Leman go sparse: Towards scalable higher-order graph embeddings

这里,我们提出了局部变体和相应的神经体系结构,它们考虑了原始邻域的一个子集,使它们更具可伸缩性,并且不太容易过度拟合。

1832

Adversarial Crowdsourcing Through Robust Rank-One Matrix Completion

们提出了一种将交替最小化与极值滤波相结合的新算法,并提供了充分必要的条件来恢复原始的秩一矩阵。

1833

Learning Semantic-aware Normalization for Generative Adversarial Networks

在本文中,我们通过学习生成对抗网络(SariGAN)中特征通道的语义感知相对重要性,提出了一种新颖的图像合成方法。

1834

Differentiable Causal Discovery from Interventional Data

这项工作提出了一种基于神经网络的理论基础方法,可以利用干预性数据,从而朝着这一方向迈出了新的一步。

1835

One-sample Guided Object Representation Disassembling

在本文中,我们介绍了单样本导引对象表示反汇编(One-GORD)方法,该方法仅需要为每个对象类别提供一个带注释的样本,即可从未注释的图像中学习反汇编的对象表示。

1836

Extrapolation Towards Imaginary 0-Nearest Neighbour and Its Improved Convergence Rate

在本文中,我们提出了一种新颖的多尺度$ k $ -NNMS- $ k $ -NN),该方法将未加权的$ k $ -NN计值从多个$ k¥ge 1 $值推算为$ k = 0 $,因此给出一个虚构的0-NN计量。

1837

Robust Persistence Diagrams using Reproducing Kernels

这项工作中,我们开发了一个框架,用于从使用重现内核构造的鲁棒密度估计量的超滤中构造鲁棒的持久性图。

1838

Contextual Games: Multi-Agent Learning with Side Information

过基于核的正则性假设,我们对不同情境和游戏结果之间的相关性进行建模,并提出一种新颖的在线(元)算法,该算法利用这种相关性来最大程度地减少单个玩家的情境后悔。

1839

Goal-directed Generation of Discrete Structures with Conditional Generative Models

在本文中,我们通过对给定感兴趣的特性的离散结构的分布进行建模,来研究直接针对此反问题的条件生成模型的使用。

1840

Beyond Lazy Training for Over-parameterized Tensor Decomposition

在本文中,我们研究了一个密切相关的张量分解问题:给定一个$ l $阶次张量,在$R ^ d^ {¥ol} $$ r $(其中$ r¥ll d $)中,梯度下降的变体可以找到其中$ m> r $的等$ m $分解?

1841

Denoised Smoothing: A Provable Defense for Pretrained Classifiers

们提出一种可证明地防御任何预训练图像分类器免受$¥ell_p $对抗攻击的方法。

1842

Minibatch Stochastic Approximate Proximal Point Methods

为此,我们提出了两种微分批处理算法,这些算法证明了收敛速度的非渐近上限,揭示了微批处理大小的线性加速。

1843

Attribute Prototype Network for Zero-Shot Learning

为此,我们提出了一种新颖的零击表示学习框架,该框架仅使用类级别的属性共同学习判别性的全局和局部特征。

1844

CrossTransformers: spatially-aware few-shot transfer

这项工作中,我们说明了支撑现代视觉系统的神经网络表示形式如何受到监督崩溃的影响,从而使它们失去了执行训练任务不必要的任何信息,包括可能转移到新任务或领域的信息。

1845

Learning Latent Space Energy-Based Prior Model

们在生成器模型的潜在空间中提出了一个基于能量的模型(EBM),以使EBM可以作为生成器模型自上而下网络上的先验模型。

1846

Learning Long-Term Dependencies in Irregularly-Sampled Time Series

们通过设计一种基于长短期记忆(LSTM)的新算法来提供解决方案,该算法将其记忆与时间连续状态分开。

1847

SEVIR : A Storm Event Imagery Dataset for Deep Learning Applications in Radar and Satellite Meteorology

为了帮助解决这个问题,我们引入了Storm EVent ImagRySEVIR)数据集-一个丰富的数据集,该数据集将来自多个传感器的时空对齐数据与深度学习模型和评估指标的基线实现相结合,以加快新算法的创新。

1848

Lightweight Generative Adversarial Networks for Text-Guided Image Manipulation

们提出一种新颖的轻量级生成对抗网络,以使用自然语言描述进行有效的图像处理。

1849

High-Dimensional Contextual Policy Search with Unknown Context Rewards using Bayesian Optimization

们开发了有效的模型,这些模型利用搜索空间的结构来直接使用贝叶斯优化从汇总奖励中启用上下文策略优化。

1850

Model Fusion via Optimal Transport

们提出了一种用于神经网络的分层模型融合算法,该算法利用最佳传输来在模型的神经元取平均之前对它们进行(软)对齐。

1851

On the Stability and Convergence of Robust Adversarial Reinforcement Learning: A Case Study on Linear Quadratic Systems

这项工作中,我们将在一个基本的鲁棒控制设置下重新检验RARL的有效性:线性二次(LQ)情况。

1852

Learning Individually Inferred Communication for Multi-Agent Cooperation

为了解决这些困难,我们提出了个人推断通信(I2C),这是一个简单而有效的模型,使代理能够了解代理之间的先验通信。

1853

Set2Graph: Learning Graphs From Sets

本文提倡一个用于学Set2Graph函数的神经网络模型,该模型既实用又具有最大表达能力(通用),也就是说,可以在紧凑集上近似任意连续的Set2Graph函数。

1854

Graph Random Neural Networks for Semi-Supervised Learning on Graphs

在本文中,我们提出了一个简单而有效的框架-图形随机神经网络(GRAND)来解决这些问题。

1855

Gradient Boosted Normalizing Flows

们提出了一种替代方案:梯度增强归一化流(GBNF)通过使用梯度增强相继添加新的NF分量来对密度进行建模。

1856

Open Graph Benchmark: Datasets for Machine Learning on Graphs

们提出了开放图谱基准(OGB),它是一组具有挑战性和现实意义的基准数据集,旨在促进可扩展,健壮和可再现的图机学习(ML)研究。

1857

Towards Understanding Hierarchical Learning: Benefits of Neural Representations

这项工作中,我们证明了中间¥mph {经表示}为神经网络增加了更多的灵活性,并且比原始输入更具优势。

1858

Texture Interpolation for Probing Visual Perception

这里,我们显示了椭圆的分布很好地描述了纹理的深层卷积神经网络(CNN)激活分布,因此,根据最佳传输理论,约束其均值和协方差足以生成新的纹理样本。然后,我们提出了自然测地线(即,两点之间的最短路径)与最佳传输度量的结合,以在任意纹理之间进行插值。

1859

Hierarchical Neural Architecture Search for Deep Stereo Matching

在本文中,我们通过将特定于任务的人类知识整合到神经体系结构搜索框架中,提出了第一个用于深度立体声匹配的¥emph {end-to-end}NAS框架。

1860

MuSCLE: Multi Sweep Compression of LiDAR using Deep Entropy Models

们提出了一种新颖的压缩算法,用于减少LiDAR感官数据流的存储。

1861

Implicit Bias in Deep Linear Classification: Initialization Scale vs Training Accuracy

当最小化对角线性网络上的指数损失时,我们提供了梯度流轨迹及其隐式优化偏差的详细渐近研究。

1862

Focus of Attention Improves Information Transfer in Visual Features

在本文中,我们专注于通过使用受物理最小作用原理启发的计算模型在真正的在线环境中传输视觉信息的无监督学习。

1863

Auditing Differentially Private Machine Learning: How Private is Private SGD?

更广泛地说,我们的工作采用定量的,经验性的方法来理解由差分私有算法的特定实现提供的隐私,我们认为这些算法有可能补充和影响差分隐私的分析工作。

1864

A Dynamical Central Limit Theorem for Shallow Neural Networks

这里,我们将平均场动力学作为Wasserstein梯度流进行分析,并证明在宽度渐近极限内,由宽度定标的平均场演化偏离在整个训练过程中仍然有限。

1865

Measuring Systematic Generalization in Neural Proof Generation with Transformers

们有兴趣了解在接受以自然语言形式编码的知识进行培训时,变压器语言模型(TLM)能够很好地执行推理任务。

1866

Big Self-Supervised Models are Strong Semi-Supervised Learners

们方法的关键要素是在预训练和微调过程中使用大型(深层和宽层)网络。我们发现,标签越少,这种方法(与任务无关的未标签数据的使用)从更大的网络中受益越多。

1867

Learning from Label Proportions: A Mutual Contamination Framework

这项工作中,我们通过根据相互污染模型(MCM)提出LLP来解决这两个问题,该模型最近已成功地用于研究其他各种弱监督环境。

1868

Fast Matrix Square Roots with Applications to Gaussian Processes and Bayesian Optimization

尽管现有方法通常需要ON ^ 3计算,但我们引入了一种高效的二次时间算法,用于通过矩阵计算K ^ {1/2} bK ^ {-1/2} b及其导数,向量乘法(MVM)。

1869

Self-Adaptively Learning to Demoir? from Focused and Defocused Image Pairs

在本文中,我们提出了一种自适应学习方法,可以借助附加的散焦的无莫尔模糊图像来使高频图像降噪。

1870

Confounding-Robust Policy Evaluation in Infinite-Horizon Reinforcement Learning

们开发了一种鲁棒的方法,根据敏感度模型,在给定来自无限策略的另一策略的数据的情况下,该策略在无限地平线问题中估计给定策略(无法识别)值的急剧边界。

1871

Model Class Reliance for Random Forests

在本文中,我们介绍了一种将模型类依赖(MCR)的计算扩展到随机森林分类器和回归器的新技术。

1872

Follow the Perturbed Leader: Optimism and Fast Parallel Algorithms for Smooth Minimax Games

这项工作中,我们表明,当损失函数的序列为¥emph {predictable}时,对FTPL进行简单修改并加入乐观可以实现更好的后悔保证,同时为不可预测的序列保留最优的最坏情况后悔保证。

1873

Agnostic $Q$-learning with Function Approximation in Deterministic Systems: Near-Optimal Bounds on Approximation Error and Sample Complexity

们提出了一种新颖的基于递归的算法,并表明如果$¥delta = O¥left¥rho /¥sqrt {¥dim_E}¥right$则可以使用$ O¥dim_E$轨迹找到最优策略,其中$¥rho $是最佳操作的最佳$ Q $值与第二最佳操作的最优QQ-值之间的差,而$¥dim_E $$¥mathcal {F} $Eluder维度。

1874

Learning to Adapt to Evolving Domains

为了应对这些挑战,我们提出了一种元适应框架,使学习者能够适应不断发展的目标领域而不会造成灾难性的遗忘。

1875

Synthesizing Tasks for Block-based Programming

在本文中,我们将综合可视化编程任务的问题形式化。

1876

Scalable Belief Propagation via Relaxed Scheduling

在本文中,我们将重点放在有效的并行算法上,以完成对基于图形模型的推理的关键机器学习任务,尤其是基本信念传播算法。

1877

Firefly Neural Architecture Descent: a General Approach for Growing Neural Networks

们提出了萤火虫神经体系结构下降的概念,这是渐进和动态增长的神经网络共同优化网络参数和体系结构的通用框架。

1878

Risk-Sensitive Reinforcement Learning: Near-Optimal Risk-Sample Tradeoff in Regret

们提出了两种可证明有效的无模型算法,即风险敏感值迭代(RSVI)和风险敏感Q习(RSQ)。

1879

Learning to Decode: Reinforcement Learning for Decoding of Sparse Graph-Based Channel Codes

们在这项工作中表明,强化学习可以成功地应用于解码短到中等长度的基于稀疏图的信道代码。

1880

Faster DBSCAN via subsampled similarity queries

在本文中,我们提出了一个称为SNG-DBSCAN简单变体,该变体基于子采样的$¥epsilon $邻域图进行聚类,只需要访问成对的点的相似性查询,尤其是避免了任何需要嵌入的复杂数据结构的数据点本身。

1881

De-Anonymizing Text by Fingerprinting Language Generation

们通过研究核采样(用于生成自动完成的应用程序的一种常用的生成文本的方法)无意间泄露了用户键入的文本,从而启动了ML统代码安全性的研究。

1882

Multiparameter Persistence Image for Topological Machine Learning

们为多参数持久性引入了一个新的描述符,我们将其称为多参数持久性图像,它适用于机器学习和统计框架,对数据的扰动具有鲁棒性,比基于切片的现有描述符具有更高的分辨率,并且可以高效地进行计算在实际大小的数据集上。

1883

PLANS: Neuro-Symbolic Program Learning from Videos

们介绍了PLANS(来自神经推断规范的程序学习),它是一种基于视觉观察的程序合成的混合模型,该模型可以同时利用两个方面的优势,这取决于(i经过训练的神经体系结构,可以从每个原始个体中提取抽象的高级信息输入(ii)使用提取的信息作I / O规范的基于规则的系统,以合成捕获不同观察结果的程序。

1884

Matrix Inference and Estimation in Multi-Layer Models

们考虑从输出的观测值估计随机多层神经网络的输入和隐藏变量的问题。

1885

MeshSDF: Differentiable Iso-Surface Extraction

们的主要见识在于,通过推理隐式场扰动如何影响局部表面几何形状,可以最终区分表面样本相对于底层深层隐式场的3D位置。

1886

Variational Interaction Information Maximization for Cross-domain Disentanglement

们得出了目标的一个可理解的界限,并提出了一个称为交互信息自动编码器(IIAE)的生成模型。

1887

Provably Efficient Exploration for Reinforcement Learning Using Unsupervised Learning

们提出了一个基于两个组件的通用算法框架:无监督学习算法和无悔表格式RL算法。

1888

Faithful Embeddings for Knowledge Base Queries

们使用一种更加忠实于演绎推理的新颖QE方法解决了这个问题,并表明这可以提高对不完整KB的复杂查询的性能。

1889

Wasserstein Distances for Stereo Disparity Estimation

们使用能够输出任意深度值的新神经网络体系结构以及从真实分布和预测分布之间的Wasserstein距离得出的新损失函数来解决这些问题。

1890

Multi-agent Trajectory Prediction with Fuzzy Query Attention

具体而言,我们提出了一种关系模型,以灵活地建模各种环境中代理之间的交互。

1891

Multilabel Classification by Hierarchical Partitioning and Data-dependent Grouping

在本文中,我们利用标签向量的稀疏性和层次结构使用标签分组将它们嵌入到低维空间中。

1892

An Analysis of SVD for Deep Rotation Estimation

们提出了用于投影到旋转组上的SVD的理论分析。

1893

Can the Brain Do Backpropagation? — Exact Implementation of Backpropagation in Predictive Coding Networks

们提出了一个BL模型,该模型(1产生与BP相同的神经权重更新,而(2)利用局部可塑性,即所有神经元仅同时执行局部计算。

1894

Manifold GPLVMs for discovering non-Euclidean latent structure in neural data

这里,我们提出了一个新的概率潜在变量模型,以同时识别潜在状态和每个神经元以无监督方式贡献其表示的方式。

1895

Distributed Distillation for On-Device Learning

为了克服这些限制,我们引入了一种分布式蒸馏算法,其中设备可以通信并从软决策(softmax输出中学习,而软决策输出本质上是不可知的,并且只能随类的数量进行扩展。

1896

COOT: Cooperative Hierarchical Transformer for Video-Text Representation Learning

在本文中,我们提出了一种协作式分层变压器(COOT),以利用该分层信息并为不同级别的粒度和不同模式之间的交互建模。

1897

Passport-aware Normalization for Deep Model Protection

为此,我们提出了一种新的可识别护照的规范化公式,该公式通常适用于大多数现有的规范化层,并且仅需添加另一个用于IP护的可识别护照的分支即可。

1898

Sampling-Decomposable Generative Adversarial Recommender

基于这些发现,我们提出了一种可采样分解的生成对抗性推荐器(SD-GAR)。

1899

Limits to Depth Efficiencies of Self-Attention

在本文中,我们从理论上研究了深度和宽度在自我注意中的相互作用。

 

 

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!

如果您对文章内容有任何改进建议等,请通过 "联系我们 "表格与爱学网编辑部联系。
如果您能通过咨询表与我们联系,我们将非常感激。

联系我们