NeurIPS2020 Highlights
Conference on Neural Information Processing Systems (NIPS) 是全球领先的机器学习会议,由于coivd-19大流行,将于2020年在线举行。这是一个会议的摘要。下面是关于这个总结的一些信息。
本摘要由Paper Digest团队整理成一个平台,叫Paper Digest。Paper Digest是一个科技知识图文分析平台,用于跟踪、总结、搜索科学文献。Paper Digest团队也将是一个纽约的研究小组,致力于文本分析。文本分析是为了出成果。我们这次发布的文章是经过授权的,可以转载他们的伟大工作。
我们这次发表的是经授权转载他们的精彩工作在我们的文章中。
原文还附有代码,有兴趣的朋友可以在这里查看。如果你对它感兴趣,你可以在这里浏览。
|
TITLE |
HIGHLIGHT |
1 |
我们采用核距离,并提出了transform-sum-cat作为聚合变换的替代方法,以反映邻域聚合中节点邻域之间的连续相似性。 |
|
2 |
An Unsupervised Information-Theoretic Perceptual Quality Metric |
我们将信息理论目标函数的最新进展与基于人类视觉系统生理学的计算架构以及对成对的视频帧的无监督训练相结合,从而产生了感知信息量度(PIM)。 |
3 |
在这项工作中,我们通过利用视频中自然存在的三种模式来学习使用自我监督的表示形式:视觉,音频和语言流。 |
|
4 |
Benchmarking Deep Inverse Models over time, and the Neural-Adjoint method |
我们考虑解决通用逆问题的任务,其中希望确定自然系统的隐藏参数,这些参数将引起一组特定的测量。 |
5 |
Off-Policy Evaluation and Learning for External Validity under a Covariate Shift |
在本文中,我们推导了协变量平移下OPE的效率边界。 |
6 |
在这项工作中,我们没有估计预期的依赖关系,而是着重估计逐点依赖关系(PD),它定量地衡量了两种结果同时发生的可能性。 |
|
7 |
Fast and Flexible Temporal Point Processes with Triangular Maps |
通过利用归一化流领域的最新发展,我们设计了TriTPP –一种新的非经常性TPP模型,可以在其中并行进行采样和似然计算。 |
8 |
Backpropagating Linearly Improves Transferability of Adversarial Examples |
在本文中,我们研究了此类示例的可移植性,从而为DNN上的许多黑盒攻击奠定了基础。 |
9 |
PyGlove: Symbolic Programming for Automated Machine Learning |
在本文中,我们介绍了一种基于符号编程的AutoML编程新方法。 |
10 |
Fourier Sparse Leverage Scores and Approximate Kernel Learning |
我们证明了在高斯和拉普拉斯度量下傅立叶稀疏函数的杠杆得分的新的明确上限。 |
11 |
Improved Algorithms for Online Submodular Maximization via First-order Regret Bounds |
在这项工作中,我们给出了一种通过利用在线线性优化的“一阶”后悔边界来改善在线子模最大化的后悔边界的一般方法。 |
12 |
Synbols: Probing Learning Algorithms with Synthetic Datasets |
从这个意义上讲,我们引入了Synbols(合成符号),该工具用于快速生成具有在低分辨率图像中呈现的大量潜在特征的新数据集。 |
13 |
Adversarially Robust Streaming Algorithms via Differential Privacy |
我们在流算法的对抗性鲁棒性和差异隐私概念之间建立了联系。 |
14 |
Trading Personalization for Accuracy: Data Debugging in Collaborative Filtering |
在本文中,我们提出了一种数据调试框架,以识别过度个性化的评分,该评分的存在会降低给定协作过滤模型的性能。 |
15 |
这项工作提出了具有亚线性并行时间生成的自回归模型。 |
|
16 |
Improving Local Identifiability in Probabilistic Box Embeddings |
在这项工作中,我们使用最小和最大Gumbel分布对框参数进行建模,选择这些参数时应确保在交点操作下空间仍然封闭。 |
17 |
Permute-and-Flip: A new mechanism for differentially private selection |
在这项工作中,我们基于对隐私约束的仔细分析,提出了用于此任务的新机制。 |
18 |
受经典分析技术启发,对混沌吸引子进行部分观测,我们引入了一种用于单变量和多变量时间序列的通用嵌入技术,该技术由训练有新的潜在空间损失函数的自动编码器组成。 |
|
19 |
Reciprocal Adversarial Learning via Characteristic Functions |
我们通过比较分布而不是通过一个功能强大的工具即特征函数(CF)来比较它们的矩来对此进行归纳,该工具唯一且通用地包含有关分布的所有信息。 |
20 |
Statistical Guarantees of Distributed Nearest Neighbor Classification |
通过多数表决,就遗憾而言,分布式最近邻分类器达到与其oracle版本相同的收敛速度,直至仅取决于数据维的乘法常数。 |
21 |
我们提出了一种新的斯坦因自排斥动力学,用于从难处理的非标准化分布中获得多样化的样本。 |
|
22 |
在本文中,我们研究了针对线性模型和核方法的平方损失的早期停止的无约束镜像下降算法应用于不规则经验风险的统计风险保证。 |
|
23 |
Algorithmic recourse under imperfect causal knowledge: a probabilistic approach |
为了解决这一局限性,我们提出了两种概率方法来选择在有限的因果知识(例如,仅因果图)下以高概率实现追索的最佳行动。 |
24 |
Quantitative Propagation of Chaos for SGD in Wide Neural Networks |
在本文中,我们研究了应用于两层超参数化神经网络的随机梯度下降(SGD)算法的连续时间对应物的极限行为,即神经元或神经元(即隐藏层的大小)$ N ¥到¥plusinfty $。 |
25 |
我们提出了针对输入操作的神经网络鲁棒性的因果观点,该观点不仅适用于传统分类任务,而且适用于一般测量数据。 |
|
26 |
Minimax Classification with 0-1 Loss and Performance Guarantees |
本文介绍了不依赖替代损失和规则族的选择的最小最大风险分类器(MRC)。 |
27 |
How to Learn a Useful Critic? Model-based Action-Gradient-Estimator Policy Optimization |
在本文中,我们提出基于策略梯度理论的基于模型的行为者评论算法MAGE,该算法可明确学习动作值梯度。 |
28 |
本文介绍了用于面板数据设置回归问题的核心集问题。 |
|
29 |
Learning Composable Energy Surrogates for PDE Order Reduction |
为了解决这个问题,我们利用参数化模块化结构来学习组件级代理,从而实现更便宜的高保真仿真。 |
30 |
我们针对具有未知结构的连续动作的情境强盗创建了一种易于计算的学习算法。 |
|
31 |
我们为学习预测模型提供了一个灵活的框架,该模型大致满足公平的均等赔率概念。 |
|
32 |
Multi-Robot Collision Avoidance under Uncertainty with Probabilistic Safety Barrier Certificates |
本文旨在提出一种避免测量不确定度和运动不确定度的碰撞避免方法。 |
33 |
在本文中,我们证明了对函数导数的硬仿射形状约束可以在内核机器中进行编码,这是机器学习和统计中最灵活,功能最强大的工具之一。 |
|
34 |
A Closer Look at the Training Strategy for Modern Meta-Learning |
支持/查询(S / Q)情景训练策略已广泛用于现代元学习算法中,并被认为可以提高其测试环境的泛化能力。本文对泛化训练策略进行了理论研究。 |
35 |
On the Value of Out-of-Distribution Testing: An Example of Goodhart's Law |
我们提供短期和长期的解决方案,以避免这些陷阱,并实现OOD评估的好处。 |
36 |
我们介绍了在似然错误指定情况下在一般状态空间隐马尔可夫模型(HMM)中进行推理的框架。 |
|
37 |
Deterministic Approximation for Submodular Maximization over a Matroid in Nearly Linear Time |
我们研究了在拟阵条件约束下最大化非单调,非负子模函数的问题。 |
38 |
Flows for simultaneous manifold learning and density estimation |
我们介绍了流形学习流(β流),这是一类新的生成模型,可同时学习数据流形和该流形上的可处理概率密度。 |
39 |
Simultaneous Preference and Metric Learning from Paired Comparisons |
在本文中,我们考虑了当距离度量是未知的Mahalanobis度量时学习用户偏好的理想点表示的问题。 |
40 |
Efficient Variational Inference for Sparse Deep Learning with Theoretical Guarantee |
在本文中,我们在先验和先验先验条件下训练经过完全贝叶斯处理的稀疏深度神经网络,并通过连续放松伯努利分布来开发一组计算有效的变分推论。 |
41 |
Learning Manifold Implicitly via Explicit Heat-Kernel Learning |
在本文中,我们提出了隐式流形学习的概念,其中通过学习相关的热核来隐式获得流形信息。 |
42 |
Deep Relational Topic Modeling via Graph Poisson Gamma Belief Network |
为了更好地利用文档网络,我们首先提出图泊松因子分析(GPFA),该模型构造了互连文档的概率模型,还提供了闭式Gibbs采样更新方程,超越了现有RTM的复杂近似假设。 |
43 |
本文提出了一比特监督,这是一种在图像分类的情况下从不完整注释中学习的新设置。 |
|
44 |
在本文中,我们提供了新的工具和分析来解决这些基本问题。 |
|
45 |
在本文中,我们介绍了一种受约束的子模最大化的新技术,该技术受连续优化中的势垒函数的启发。 |
|
46 |
所提出的框架称为带反馈卷积神经网络(CNN-F),它向现有CNN架构引入了具有潜在变量的生成反馈,其中在贝叶斯框架下通过交替MAP推断做出一致的预测。 |
|
47 |
Learning to Extrapolate Knowledge: Transductive Few-shot Out-of-Graph Link Prediction |
受此挑战的驱使,我们引入了一个鲜为人知的图外链接预测的现实问题,在该问题中,我们不仅像传统的知识外链接预测任务中那样,预测可见节点与不可见节点之间的链接,而且看不见的节点,每个节点只有很少的边缘。 |
48 |
Exploiting weakly supervised visual patterns to learn from partial annotations |
相反,在本文中,我们利用图像和标签之间的关系从未注释的标签中获取更多的监督信号。 |
49 |
我们考虑使用深潜变量模型进行有损图像压缩的问题。 |
|
50 |
在这项工作中,我们提出了一种适用于完全连接层和卷积层的神经元合并的新概念,该概念可以补偿由于修剪的神经元/过滤器而导致的信息丢失。 |
|
51 |
FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence |
在本文中,我们提出了FixMatch,该算法可以极大地简化现有SSL方法。 |
52 |
Reinforcement Learning with Combinatorial Actions: An Application to Vehicle Routing |
我们开发了一个具有组合动作空间的基于价值函数的深度强化学习框架,在该框架中,动作选择问题明确地表述为混合整数优化问题。 |
53 |
Towards Playing Full MOBA Games with Deep Reinforcement Learning |
在本文中,我们提出了一种MOBA AI学习范例,该方法可以在方法上实现使用深度强化学习玩完整的MOBA游戏。 |
54 |
Rankmax: An Adaptive Projection Alternative to the Softmax Function |
在这项工作中,我们提出了一种使该参数适合于各个训练示例的方法。 |
55 |
在这项工作中,我们提供了第一个不可知的在线提升算法;也就是说,给定一个弱学习者仅具有微不足道的后悔保证,我们的算法会将其提升为具有次线性后悔的强大学习者。 |
|
56 |
Causal Intervention for Weakly-Supervised Semantic Segmentation |
我们提出了一种因果推理框架来改善弱监督语义分割(WSSS)。 |
57 |
为了弥合这一差距,我们引入了置信传播神经网络(BPNN),这是一类对因子图进行操作并推广置信度传播(BP)的参数化运算符。 |
|
58 |
Over-parameterized Adversarial Training: An Analysis Overcoming the Curse of Dimensionality |
我们的工作证明,在自然假设和ReLU激活下,对于¥emph {多项式}宽度而不是指数,可以降低鲁棒训练损失。 |
59 |
Post-training Iterative Hierarchical Data Augmentation for Deep Networks |
在本文中,我们提出了一种新的迭代层次数据扩充(IHDA)方法,以对经过训练的深度神经网络进行微调,以提高其泛化性能。 |
60 |
我们调查事后模型解释是否对诊断模型错误(模型调试)有效。 |
|
61 |
在本文中,我们提出一种受均值中位数(MOM)启发的算法。 |
|
62 |
Fairness without Demographics through Adversarially Reweighted Learning |
在这项工作中,我们通过提出对抗性加权学习(ARL)来解决这个问题。 |
63 |
Stochastic Latent Actor-Critic: Deep Reinforcement Learning with a Latent Variable Model |
在这项工作中,我们通过显式学习可以加速从图像进行强化学习的潜在表示,分别解决这两个问题。 |
64 |
Ridge Rider: Finding Diverse Solutions by Following Eigenvectors of the Hessian |
在本文中,我们提出了一种不同的方法。我们没有遵循对应于局部贪婪方向的梯度,而是遵循了Hessian的特征向量。 |
65 |
The route to chaos in routing games: When is price of anarchy too optimistic? |
我们使用实际游戏成本研究MWU,而未将成本归一化为$ [0,1] $。 |
66 |
Online Algorithm for Unsupervised Sequential Selection with Contextual Information |
在本文中,我们研究了上下文无监督顺序选择(USS),它是一种随机上下文强盗问题的新变体,其中无法从观察到的反馈中推断出手臂的损失。 |
67 |
本文旨在通过领域自适应来改善神经体系结构的一般化。 |
|
68 |
What went wrong and when?\\ Instance-wise feature importance for time-series black-box models |
我们提出FIT,该框架通过量化预测分布随时间的变化来评估多元时间序列黑盒模型的观测结果的重要性。 |
69 |
为了弥补这一差距,我们建议使用¥textit {¥textbf {S}表¥textbf {A}自适应¥¥textbf {G}辐射¥¥textbf {D} escent}(¥textsc {SAGD})进行非凸优化,以利用差异隐私提高自适应梯度法的泛化性能。 |
|
70 |
本文的思路与此相同-从涉及轨迹空间平滑的替代RL目标开始,我们得出了一种学习指导奖励的新算法。 |
|
71 |
Variance Reduction via Accelerated Dual Averaging for Finite-Sum Optimization |
在本文中,我们介绍了一种简化和统一的有限和凸优化方法,称为¥emph {通过加速双重平均(VRADA)减少方差}。 |
72 |
Tree! I am no Tree! I am a low dimensional Hyperbolic Embedding |
在本文中,我们通过采用度量优先的方法探索了一种学习双曲表示的新方法。 |
73 |
Deep Structural Causal Models for Tractable Counterfactual Inference |
我们为使用深度学习组件构建结构因果模型(SCM)制定了一般框架。 |
74 |
我们工作的关键贡献在于将网格和纹理编码为2D表示,这些表示在语义上是对齐的,并且可以通过2D卷积GAN轻松建模。 |
|
75 |
A Statistical Framework for Low-bitwidth Training of Deep Neural Networks |
在本文中,我们通过提供用于分析FQT算法的统计框架来解决此问题。 |
76 |
为了解决此限制,我们提出了一个简单而通用的网络模块,称为Set Refiner Network(SRN)。 |
|
77 |
AutoSync: Learning to Synchronize for Data-Parallel Distributed Deep Learning |
在本文中,我们开发了模型和资源相关的同步表示形式,它统一了从架构,消息分区,布局方案到通信拓扑的多个同步方面。 |
78 |
在这项工作中,我们研究了模块化解决方案的学习如何能够有效地将未见的和可能不同分布的数据进行概括。 |
|
79 |
我们证明了这方面的负面结果,并表明对于深度2元的网络以及许多“自然”权重分布(例如正态分布和均匀分布),大多数网络都很难学习。 |
|
80 |
基于有向图的埃尔米特矩阵表示法,我们提出了一种近线性的有向图聚类时间算法,并进一步证明了我们提出的算法可以在合理的假设下以亚线性时间实现。 |
|
81 |
我们提出了一种将两种方法的优点结合起来的方法,同时解决了它们的局限性:我们将从图神经网络文献中得出的原始对偶框架扩展到三角形网格,并在由输入网格。 |
|
82 |
The Advantage of Conditional Meta-Learning for Biased Regularization and Fine Tuning |
我们通过条件元学习解决此限制,将条件函数将任务的辅助信息映射到适合手头任务的元参数向量中。 |
83 |
Watch out! Motion is Blurring the Vision of Your Deep Neural Networks |
我们提出了一种新颖的对抗攻击方法,该方法可以生成视觉上自然运动模糊的对抗示例,称为基于运动的对抗模糊攻击(ABBA)。 |
84 |
在本文中,我们考虑了在Sinkhorn散度下计算一组概率分布的重心的问题。 |
|
85 |
我们提出了一个通用的框架,用于计算损失函数的敏感性(从而称为核心集),我们将其称为近凸函数。 |
|
86 |
我们通过向每个合奏成员添加计算上易处理,随机且不可训练的函数,对标准深度合奏训练进行简单修改,从而可以在无限宽度范围内进行后验解释。 |
|
87 |
Improved Schemes for Episodic Memory-based Lifelong Learning |
在本文中,我们从优化的角度提供了基于情景记忆的方法的第一个统一视图。 |
88 |
我们提出了一种自适应采样算法,用于随机优化损失分布的{¥em条件风险值(CVaR)},该算法可在最困难的示例的¥¥alpha分数上衡量其性能。 |
|
89 |
Deep Wiener Deconvolution: Wiener Meets Deep Learning for Image Deblurring |
我们结合经典技术和深度学习,提出了一种简单有效的非盲图像去模糊方法。 |
90 |
本文介绍了一种新的元学习方法,该方法可发现整个更新规则,该规则包括通过与一组环境进行交互来预测的内容(例如,值函数)以及如何从中学习的内容(例如,引导程序)。 |
|
91 |
这项工作的主要贡献是通过有效减少模型模型的离散集成来解决这一可扩展性挑战。 |
|
92 |
为了解决这个问题,我们提出了一种新颖且通用的盲视频时间一致性方法。 |
|
93 |
Simplify and Robustify Negative Sampling for Implicit Collaborative Filtering |
在本文中,我们首先通过经验观察来提供对负数实例的新颖理解,只有很少几个实例对模型学习具有潜在的重要意义,而假负数往往在许多训练迭代中具有稳定的预测。 |
94 |
Model Selection for Production System via Automated Online Experiments |
我们提出了一种自动化的在线实验机制,该机制可以通过少量在线实验从大量模型中高效地执行模型选择。 |
95 |
On the Almost Sure Convergence of Stochastic Gradient Descent in Non-Convex Problems |
在本文中,我们分析了随机梯度下降(SGD)的轨迹,旨在了解它们在非凸问题中的收敛特性。 |
96 |
Automatic Perturbation Analysis for Scalable Certified Robustness and Beyond |
在本文中,我们通过将现有的LiRPA算法(例如CROWN)推广到通用计算图上,开发了一个自动框架,可对任何神经网络结构进行扰动分析。 |
97 |
Adaptation Properties Allow Identification of Optimized Neural Codes |
在这里,我们解决了一个反问题:根据有效编码如何适应不同的刺激分布,对有效编码似乎是最佳的目标和约束函数进行表征。 |
98 |
Global Convergence and Variance Reduction for a Class of Nonconvex-Nonconcave Minimax Problems |
在这项工作中,我们表明,对于满足所谓的两面Polyak- {¥L} ojasiewicz不等式的非凸-非凹目标的子类,交替梯度下降上升(AGDA)算法以线性速率全局收敛,并且是随机的AGDA达到亚线性速率。 |
99 |
Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal Sample Complexity |
在本文中,我们旨在解决有关基于模型的MARL的样本复杂性的根本性开放性问题。 |
100 |
在本文中,我们提出了保守的Q学习(CQL),其目的是通过学习保守的Q函数来解决这些限制,从而使该Q函数下的策略的期望值降低其真实值。 |
|
101 |
在本文中,我们针对线性阈值(LT)模型中的OIM。 |
|
102 |
我们开发了一种新的数据驱动的整合策略,以使用贝叶斯神经网络组合地球物理模型,该模型可以推断时空变化的模型权重和偏差,同时考虑观测值中的异方差不确定性。 |
|
103 |
Delving into the Cyclic Mechanism in Semi-supervised Video Object Segmentation |
在本文中,我们尝试将循环机制与半监督视频对象分割的视觉任务相结合。 |
104 |
Asymmetric Shapley values: incorporating causal knowledge into model-agnostic explainability |
我们引入了一个限制性较小的框架,即非对称Shapley值(ASV),它严格地建立在适用于任何AI系统的一组公理基础上,并且可以灵活地合并已知受数据尊重的任何因果结构。 |
105 |
在本文中,我们通过显示算法层的属性(例如收敛性,稳定性和敏感性)与端到端的逼近和泛化能力密切相关,从而迈出了对此类混合深度架构的理解的第一步。模型。 |
|
106 |
Planning in Markov Decision Processes with Gap-Dependent Sample Complexity |
我们提出了MDP-GapE,这是一种新的基于轨迹的蒙特卡洛树搜索算法,用于在马尔可夫决策过程中进行规划,其中对过渡具有有限的支持。 |
107 |
Provably Good Batch Off-Policy Reinforcement Learning Without Great Exploration |
我们表明,在不考虑集中性假设的情况下,在Bellman最优性的低数据区域中使用¥emph {悲观价值估计}和评估备份可以产生更多的适应性和更强的保证。 |
108 |
Detection as Regression: Certified Object Detection with Median Smoothing |
这项工作是受最近通过随机平滑进行认证分类的进展所推动的。我们首先提出从对象检测到回归问题的减少。 |
109 |
Contextual Reserve Price Optimization in Auctions via Mixed Integer Programming |
我们研究了在给定上下文信息的情况下学习线性模型以设置拍卖中的底价的问题,以便最大程度地提高卖方的预期收入。 |
110 |
ExpandNets: Linear Over-parameterization to Train Compact Convolutional Networks |
我们介绍一种训练给定紧凑网络的方法。 |
111 |
在本文中,我们提出了一种加密算法/体系结构来压缩量化的权重,以实现每权重的分数位数。 |
|
112 |
The Implications of Local Correlation on Learning Some Deep Functions |
我们介绍了一种分布的属性,称为“局部相关性”,它要求输入图像的小块和目标函数的中间层与目标标签相关。 |
113 |
Learning to search efficiently for causally near-optimal treatments |
我们将这个问题形式化为学习使用因果推理框架在最少数量的试验中寻找接近最佳治疗的策略。 |
114 |
A Game Theoretic Analysis of Additive Adversarial Attacks and Defenses |
在本文中,我们提出了一个博弈论框架来研究均衡存在的攻击和防御。 |
115 |
Posterior Network: Uncertainty Estimation without OOD Samples via Density-Based Pseudo-Counts |
在这项工作中,我们提出了后验网络(PostNet),该网络使用规范化流来预测任何输入样本在预测概率上的单个封闭式后验分布。 |
116 |
在这项工作中,我们构建了第一个量子递归神经网络(QRNN),在非平凡任务(例如序列学习和整数位数分类)上具有可证明的性能。 |
|
117 |
No-Regret Learning and Mixed Nash Equilibria: They Do Not Mix |
在本文中,我们研究了遵循正规化领导者(FTRL)的动力学,后者可能是研究最深入的无后悔动力学类别,并且我们建立了全面的否定结果,表明混合Nash均衡的概念与否定性相反。后悔学习。 |
118 |
A Unifying View of Optimism in Episodic Reinforcement Learning |
在本文中,我们提供了一个在一般的强化学习问题中设计,分析和实现此类算法的通用框架。 |
119 |
在本文中,我们提出了第一个连续优化算法,该算法针对线性约束下的单调连续亚模最大化问题,实现了恒定因子近似保证。 |
|
120 |
An Asymptotically Optimal Primal-Dual Incremental Algorithm for Contextual Linear Bandits |
在本文中,我们遵循了从与问题相关的后悔下限派生渐近最优算法的最新方法,并介绍了一种改进的,沿多个维度进行改进的新颖算法。 |
121 |
Assessing SATNet's Ability to Solve the Symbol Grounding Problem |
在本文中,我们通过显示在没有中间标签来识别各个Sudoku数字图像及其逻辑表示的中间标签的情况下,澄清了SATNet的功能,SATNet在视觉Sudoku上完全失败(测试精度为0%)。 |
122 |
我们从概率的角度研究神经网络表示。 |
|
123 |
On the Similarity between the Laplace and Neural Tangent Kernels |
在这里,我们显示具有ReLU激活的完全连接网络的NTK与标准Laplace内核密切相关。 |
124 |
在这里,我们描述了一种基于因果思想的合成概括方法。 |
|
125 |
我们介绍了一种通用框架(HiPPO),用于通过投影到多项式基上来对连续信号和离散时间序列进行在线压缩。 |
|
126 |
在本文中,我们设计了一种自动学习注意(AutoLA)方法,这是对自动注意设计的首次尝试。 |
|
127 |
我们介绍了因果结构学习(CASTLE)正则化,并建议通过共同学习变量之间的因果关系来对神经网络进行正则化。 |
|
128 |
Long-Tailed Classification by Keeping the Good and Removing the Bad Momentum Causal Effect |
在本文中,我们建立了因果推理框架,该框架不仅揭示了先前方法的原因,而且还推导了新的有原则的解决方案。 |
129 |
但是,我们证明,重要的Borda规则的结果可以使用O(m ^ 2)步骤来解释,其中m是替代数。 |
|
130 |
在本文中,我们介绍ACNet,这是一种新颖的可微神经网络体系结构,可增强结构特性并使人们能够学习一类重要的系动词-Archimedean Copulas。 |
|
131 |
Re-Examining Linear Embeddings for High-Dimensional Bayesian Optimization |
在本文中,我们确定了有关在BO中使用线性嵌入的几个关键问题和误解。 |
132 |
UnModNet: Learning to Unwrap a Modulo Image for High Dynamic Range Imaging |
在本文中,我们将模图像解包问题重新构造为一系列二进制标记问题,并提出了一种模态边缘感知模型(称为UnModNet),以迭代方式估计模图像的二进制翻转掩码以进行解包。 |
133 |
Thunder: a Fast Coordinate Selection Solver for Sparse Learning |
在本文中,我们提出了一种新颖的主动增量方法来进一步提高求解器的效率。 |
134 |
Neural Networks Fail to Learn Periodic Functions and How to Fix It |
作为解决此问题的方法,我们提出了一个新的激活,即$ x +¥sin ^ 2(x)$,它可以实现所需的周期性感应偏差以学习周期函数,同时保持$¥relu的最佳优化特性。基于$的激活。 |
135 |
在本文中,我们表明将高斯方法强加于注释会损害泛化性能。 |
|
136 |
在本文中,我们提出了一个完全可微的流水线,用于估计3D点云之间的精确密集对应关系。 |
|
137 |
Learning to Dispatch for Job Shop Scheduling via Deep Reinforcement Learning |
在本文中,我们建议通过端到端的深度强化学习代理自动学习PDR。 |
138 |
尽管先前的评估论文主要侧重于最终结果(表明防御无效),但本文着重于提出实施自适应攻击所必需的方法和方法。 |
|
139 |
在这方面,我们提出了一种新颖的Sinkhorn自然梯度(SiNG)算法,该算法可作为Sinkhorn散度赋予的概率空间的最速下降方法。 |
|
140 |
Online Sinkhorn: Optimal Transport distances from sample streams |
本文介绍了一种新的在线估计器,用于估计两个这样的任意分布之间的熵正则化OT距离。 |
141 |
在本文中,我们提出了一个存在于恒定非零曲率的伪黎曼流形上的表示。 |
|
142 |
我们通过引入高效的在线算法(基于单个通用主算法)来填补这一空白,每种算法均符合以下规则之一:(i)竞争者函数的局部Lipschitzness,(ii)实例序列的局部度量维度,(iii )预测变量在实例空间不同区域的局部性能。 |
|
143 |
Compositional Generalization via Neural-Symbolic Stack Machines |
为了解决这个问题,我们提出了神经符号堆叠机(NeSS)。 |
144 |
Graphon Neural Networks and the Transferability of Graph Neural Networks |
在本文中,我们介绍了石墨烯NN作为GNN的极限对象,并证明了GNN的输出与其极限石墨烯NN之间的差异的界限。 |
145 |
Unreasonable Effectiveness of Greedy Algorithms in Multi-Armed Bandit with Many Arms |
我们研究了{¥em many-armed}贝叶斯多臂强盗问题中的后悔最小化政策的结构:特别是在$ k $的武器数量和$ T $时间范围的情况下,我们考虑了$ k¥geq¥sqrt {T} $。 |
146 |
Gamma-Models: Generative Temporal Difference Learning for Infinite-Horizon Prediction |
我们介绍了伽马模型,这是一种具有无限概率范围的环境动力学的预测模型。 |
147 |
我们提出了一个概率框架,通过学习层选择的后验分布来自动学习要使用哪个层。 |
|
148 |
Neural Mesh Flow: 3D Manifold Mesh Generation via Diffeomorphic Flows |
在这项工作中,我们提出了NeuralMeshFlow(NMF)来为属0形状生成两个流形网格。 |
149 |
Statistical control for spatio-temporal MEG/EEG source imaging with desparsified mutli-task Lasso |
为了解决这个问题,我们将稀疏化的Lasso估计器(为针对高维线性模型量身定制的估计器,在稀疏度和中等特征相关假设下渐进地遵循高斯分布)适应了因自相关噪声而损坏的时间数据。 |
150 |
A Scalable MIP-based Method for Learning Optimal Multivariate Decision Trees |
在本文中,我们提出了一种基于1-范数支持向量机模型的新型MIP公式,用于训练针对分类问题的二进制斜式ODT。 |
151 |
我们提出了一种新的EEV系统,用于高效准确地验证BNN。 |
|
152 |
在本文中,我们提出了许多新颖的技术和数值表示形式,它们首次使训练系统的精度从8位积极地扩展到4位。 |
|
153 |
Bridging the Gap between Sample-based and One-shot Neural Architecture Search with BONAS |
在这项工作中,我们提出了BONAS(贝叶斯优化神经体系结构搜索),这是一个基于样本的NAS框架,它使用权重共享来加速以同时评估多个相关体系结构。 |
154 |
最近,发表了一个具有挑衅性的主张,即数字感觉自发地出现在仅针对视觉对象识别而训练的深度神经网络中。如果是真的,这对机器学习和认知科学领域都具有深远的意义。在本文中,我们证明上述说法是错误的。 |
|
155 |
Outlier Robust Mean Estimation with Subgaussian Rates via Stability |
我们在有界协方差假设下,更广泛地在有界低度矩假设下研究离群鲁棒高维均值估计的问题。 |
156 |
在这项工作中,我们引入了一种自我监督的方法,该方法隐式地学习了视觉关系,而无需依赖任何真实的视觉关系注释。 |
|
157 |
Information Theoretic Counterfactual Learning from Missing-Not-At-Random Feedback |
为了规避RCT的使用,我们建立了一个信息理论反事实变体信息瓶颈(CVIB),作为无RCT的偏向学习的替代方法。 |
158 |
Prophet Attention: Predicting Attention with Future Attention |
在本文中,我们提出了先知注意,类似于自我监督的形式。 |
159 |
具体来说,我们训练GPT-3(一种具有1750亿个参数的自回归语言模型,比以前的任何非稀疏语言模型多10倍),并在很少的设置下测试其性能。 |
|
160 |
在这项工作中,我们首先证明了第k个裕度边界不足以解释最新的梯度增强器的性能。然后,我们解释第k个边界的不足之处,并证明一个更强大,更细化的基于边界的泛化边界,确实可以成功地解释现代梯度增强器的性能。 |
|
161 |
为了解决这些缺点,我们提出了一种新颖的归因算法,其中在训练时计算输入级归因得分的傅立叶变换,并对傅立叶频谱的高频分量进行惩罚。 |
|
162 |
MomentumRNN: Integrating Momentum into Recurrent Neural Networks |
我们从理论上证明并通过数值证明,MomentumRNN减轻了训练RNN时消失的梯度问题。 |
163 |
Marginal Utility for Planning in Continuous or Large Discrete Action Spaces |
在本文中,我们探索通过优化一种新颖的客观边际效用来明确学习候选动作生成器。 |
164 |
在这项工作中,我们提出了一种{投影斯坦因变量梯度下降}(pSVGD)方法,通过利用由于此类问题的不适定性而利用数据知悉子空间的固有低维性的基本特性来克服这一挑战。 |
|
165 |
Minimax Lower Bounds for Transfer Learning with Linear and One-hidden Layer Neural Networks |
在本文中,我们开发了一个统计极小极大框架,以线性和单层神经网络模型在回归的背景下表征迁移学习的基本限制。 |
166 |
SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks |
我们介绍SE(3)-Transformer,它是3D点云的自注意模块的变体,在连续3D旋转平移下它是等变的。 |
167 |
On the equivalence of molecular graph convolution and molecular wave function with poor basis set |
在这项研究中,我们证明了Pauling和Lennard-Jones在1920年代引入的近似原子轨道线性组合(LCAO)对应于分子的图卷积网络(GCN)。 |
168 |
我们研究了在动态随机和对抗性干扰的影响下,在线线性二次调节器控制中预测的影响。 |
|
169 |
Learning Affordance Landscapes for Interaction Exploration in 3D Environments |
我们引入了一种增强型学习方法来进行交互探索,从而使具体体现的代理人能够自主发现新的未映射3D环境(例如,陌生的厨房)的负担能力情况。 |
170 |
我们设计了一种分布式学习算法,该算法可以克服玩家偏向最大化他们所获得的更多信息的玩家所获得的信息偏差的信息。 |
|
171 |
Tight First- and Second-Order Regret Bounds for Adversarial Linear Bandits |
我们提出了具有对抗性线性强盗一阶和二阶后悔界限的新颖算法。 |
172 |
Just Pick a Sign: Optimizing Deep Multitask Models with Gradient Sign Dropout |
我们提出了Gradient Sign Dropout(GradDrop),一种概率掩蔽程序,该程序根据其一致性级别在激活层上对梯度进行采样。 |
173 |
A Loss Function for Generative Neural Networks Based on Watson?s Perceptual Model |
我们基于Watson的感知模型提出了这样的损失函数,该模型计算频率空间中的加权距离并说明亮度和对比度掩盖。 |
174 |
Dynamic Fusion of Eye Movement Data and Verbal Narrations in Knowledge-rich Domains |
我们建议共同分析专家的眼动和言语叙述,以发现重要且可解释的知识模式,以更好地了解他们的决策过程。 |
175 |
Scalable Multi-Agent Reinforcement Learning for Networked Systems with Average Reward |
在本文中,我们识别出一类丰富的网络MARL问题,其中模型表现出局部依赖结构,可以以可扩展的方式对其进行求解。 |
176 |
最近发现,考夫曼算子理论(Koopman算子理论)是发现非线性动力学系统基本动力学的有力框架,与神经网络训练密切相关。在这项工作中,我们采取了使用此连接的第一步。 |
|
177 |
SVGD as a kernelized Wasserstein gradient flow of the chi-squared divergence |
我们介绍了有关SVGD的新观点,而是将SVGD视为卡方散度的核化梯度流。 |
178 |
在这项工作中,我们通过考虑一个模型来取得更好的平衡,该模型包括学习表示形式,同时给出精确的概括范围和鲁棒性证书。 |
|
179 |
在这项工作中,我们使用来自P的样本学习未知分布P的此类策略。 |
|
180 |
在这项工作中,我们研究了两种生物学上合理的机制在对抗性鲁棒性中的作用。 |
|
181 |
对于ReLU回归的特定问题(等效地,不可知论地学习ReLU),我们证明了任何具有容差$ n ^ {- (1 /¥epsilon)^ b} $的统计查询算法都必须至少使用$ 2 ^ {n ^ c}¥epsilon $查询一些常数$ b,c> 0 $,其中$ n $是尺寸,$¥epsilon $是精度参数。 |
|
182 |
本文首次弥合了这一差距:我们提出了样本复杂度为¥tlO(SAB)的Nash Q学习算法的乐观变体,以及样本复杂度为¥tlO(S(A + B ))。 |
|
183 |
我们提出了一种基于神经平均场动力学的新颖学习框架,用于网络扩散的推理和估计问题。 |
|
184 |
考虑到这一点,我们为师生培训提供了一种新的解释,即摊销MAP估计,从而使老师的预测能够实现针对特定实例的正则化。 |
|
185 |
在本文中,我们提出了一个基于“统一局部收敛”原理的新框架。 |
|
186 |
Cross-lingual Retrieval for Iterative Self-Supervised Training |
在这项工作中,我们发现通过对使用自己的编码器输出提取的句子对训练seq2seq模型,可以进一步改善跨语言的对齐方式。 |
187 |
在本文中,我们以具有代表性的GNN为基础,并引入了变体,这些变体通过使用随机图或在补图上进行聚类来挑战需要保留位置的表示形式。 |
|
188 |
在这里,我们介绍了指针图形网络(PGN),该网络通过附加的推断边来增强集或图形,从而提高了模型的泛化能力。 |
|
189 |
Gradient Regularized V-Learning for Dynamic Treatment Regimes |
在本文中,我们介绍了梯度正则化V学习(GRV),这是一种估算DTR值函数的新方法。 |
190 |
Faster Wasserstein Distance Estimation with the Sinkhorn Divergence |
在这项工作中,我们建议使用Sinkhorn散度来估计它,该散度也是建立在熵正则化的基础上,但包含去偏项。 |
191 |
我们通过加强世界内部模型的规划来改进强化学习中的学分分配问题,并探索有关代理商如何最好地使用附加计算来传播新信息的方式的基本问题。 |
|
192 |
Robust Recursive Partitioning for Heterogeneous Treatment Effects with Uncertainty Quantification |
本文开发了一种用于子组分析的新方法R2P,它可以解决所有这些弱点。 |
193 |
为了减轻这种情况,我们建议使用尖峰序列内核直接最小化神经记录和模型生成的尖峰序列之间的差异。 |
|
194 |
Lower Bounds and Optimal Algorithms for Personalized Federated Learning |
在这项工作中,我们考虑了Hanzely&Richtarik(2020)最近引入的个性化联合学习的优化公式,该公式被证明可以替代本地SGD方法的工作原理。 |
195 |
Black-Box Certification with Randomized Smoothing: A Functional Optimization Based Framework |
从统一的功能优化角度,我们提出了一种具有非高斯噪声和更一般攻击类型的对抗性认证的通用框架。 |
196 |
我们提出了在连续状态动作空间中用于机器人双手操纵的深度模仿学习框架。 |
|
197 |
Stationary Activations for Uncertainty Calibration in Deep Learning |
我们引入了一个新的非线性神经网络激活函数家族,该函数模仿了由高斯过程(GP)模型中广泛使用的Mat¥'ern核家族引起的特性。 |
198 |
Ensemble Distillation for Robust Model Fusion in Federated Learning |
在这项工作中,我们研究了针对FL的更强大,更灵活的聚合方案。 |
199 |
在本文中,我们提出了一种快速的,频域深的神经网络,名为Falcon,用于对加密数据的快速推断。 |
|
200 |
在这项工作中,我们专注于分类问题,并研究了深集合的未校准和已校准负对数似然(CNLL)的行为,作为集合大小和成员网络大小的函数。 |
|
201 |
Practical Quasi-Newton Methods for Training Deep Neural Networks |
我们考虑开发用于训练深度神经网络(DNN)的实际随机准牛顿方法,尤其是Kronecker分解对角线BFGS和L-BFGS方法。 |
202 |
Approximation Based Variance Reduction for Reparameterization Gradients |
在这项工作中,我们提出了一个控制变量,该变量适用于任何具有已知均值和协方差的可重分配分布,例如具有任何协方差结构的高斯分布。 |
203 |
Inference Stage Optimization for Cross-scenario 3D Human Pose Estimation |
在这项工作中,我们提出了一个新颖的框架,即推理阶段优化(ISO),用于在源数据和目标数据来自不同的姿态分布时提高3D姿态模型的通用性。 |
204 |
Consistent feature selection for analytic deep neural networks |
在这项工作中,我们研究了解析深度网络的特征选择问题。 |
205 |
Glance and Focus: a Dynamic Approach to Reducing Spatial Redundancy in Image Classification |
受并非图像中的所有区域都与任务相关的事实的启发,我们提出了一种新颖的框架,该框架通过处理一系列相对较小的输入来执行有效的图像分类,这些输入相对较小,这些输入是通过强化学习从原始图像中策略性地选择的。 |
206 |
我们引入了转导式信息最大化(TIM),以进行少量学习。 |
|
207 |
Inverse Reinforcement Learning from a Gradient-based Learner |
在本文中,我们提出了一种针对该设置的新算法,该算法的目标是在学习过程中产生一系列策略的情况下,恢复由代理优化的奖励函数。 |
208 |
Bayesian Multi-type Mean Field Multi-agent Imitation Learning |
在本文中,我们提出了贝叶斯多类型平均场多智能体模仿学习(BM3IL)。 |
209 |
为了在这两个极端之间架起桥梁,我们提出了贝叶斯鲁棒优化模仿学习(BROIL)。 |
|
210 |
Multiview Neural Surface Reconstruction by Disentangling Geometry and Appearance |
在这项工作中,我们解决了多视图3D表面重建的难题。 |
211 |
为了克服这个问题,我们引入了黎曼连续归一化流,该模型通过将流定义为常微分方程的解,从而允许对光滑流形上的柔性概率测度进行参数化。 |
|
212 |
Attention-Gated Brain Propagation: How the brain can implement reward-based error backpropagation |
我们展示了具有任意数量层的深层网络的生物学上可行的强化学习方案。 |
213 |
Asymptotic Guarantees for Generative Modeling Based on the Smooth Wasserstein Distance |
在这项工作中,我们对最小光滑Wasserstein估计量(MSWE)进行了彻底的统计研究,首先证明了估计量的可测性和渐近一致性。 |
214 |
相反,我们在这项工作中表明,在l1损失上的随机梯度下降以$¥tilde {O}(1 /(1-¥eta)^ 2 n)$的速率收敛到真实参数矢量,而速率与污染测量值。 |
|
215 |
在本文中,我们介绍了满足这些要求的PRANK方法。 |
|
216 |
Fighting Copycat Agents in Behavioral Cloning from Observation Histories |
为了解决这个“模仿问题”,我们提出了一种对抗性方法来学习一种特征表示,该特征表示会删除有关先前专家操作令人讨厌的内容的过多信息,同时保留预测下一个操作所需的信息。 |
217 |
在此模型下,我们分析了最小风险下单步固定步长随机梯度下降的收敛性。 |
|
218 |
在这项工作中,我们提出了通过结构化预测进行条件元学习的新视角。 |
|
219 |
Optimal Lottery Tickets via Subset Sum: Logarithmic Over-Parameterization is Sufficient |
在这项工作中,我们缩小了差距,并对存在彩票的过度参数化要求进行了指数改进。 |
220 |
The Hateful Memes Challenge: Detecting Hate Speech in Multimodal Memes |
这项工作为多模式分类提出了一个新的挑战集,重点是在多模式模因中检测仇恨语音。 |
221 |
本文建议,不使用任何随机梯度逼近的确定性梯度下降仍然可以表现出随机行为。 |
|
222 |
关于需要进行哪些具体的实验测量以确定任何给定的学习规则在实际的生物系统中是否有效,这是一个悬而未决的问题。在这项工作中,我们对这个问题采取了“虚拟实验”的方法。 |
|
223 |
Optimal Approximation – Smoothness Tradeoffs for Soft-Max Functions |
我们的目标是为近似和平滑度的不同度量确定最佳近似平滑度折衷。 |
224 |
Weakly-Supervised Reinforcement Learning for Controllable Behavior |
在这项工作中,我们介绍了一个框架,该框架使用弱监督自动将任务的这个语义有意义的子空间与无意义的“ chaff”任务的巨大空间自动区分开。 |
225 |
Improving Policy-Constrained Kidney Exchange via Pre-Screening |
我们提出了贪婪的启发式搜索和蒙特卡洛树搜索,它们优于以前的方法,使用了来自器官共享联合网络的合成数据和真实肾脏交换数据的实验。 |
226 |
Learning abstract structure for drawing by efficient motor program induction |
我们显示出人们自发地学习支持概括的抽象绘图程序,并提出了一个学习者如何发现这些可重用绘图程序的模型。 |
227 |
本文从所谓的“神经正切核”的角度研究了深度学习中的这个基本问题。 |
|
228 |
我们提出了一种非线性工具变量(IV)回归的新颖算法DualIV,该算法通过对偶公式简化了传统的两阶段方法。 |
|
229 |
Stochastic Gradient Descent in Correlated Settings: A Study on Gaussian Processes |
在本文中,我们将重点放在高斯过程(GP)上,并通过证明小批量SGD收敛到全损失函数的临界点,向突破障碍迈进了一步,并以速率$ O(¥frac {1)恢复模型超参数。 } {K})$取决于小批量的大小,直至统计误差项。 |
230 |
多亏了它,我们提出了一种新颖的FSL范式:介入式少量学习(IFSL)。 |
|
231 |
Minimax Value Interval for Off-Policy Evaluation and Policy Optimization |
我们研究使用价值函数和边际重要性权重进行政策评估(OPE)的minimax方法。 |
232 |
对于这种特殊设置,我们提出了一种与下限复杂度匹配的加速算法,称为有偏的SpiderBoost(BSpiderBoost)。 |
|
233 |
本文介绍了ShiftAddNet,其主要灵感来自节能硬件实现中的常规做法,也就是说,可以通过加法和逻辑移位来执行乘法。 |
|
234 |
Network-to-Network Translation with Conditional Invertible Neural Networks |
因此,我们寻求一种可以在不同的现有表示形式之间建立联系的模型,并提出使用条件可逆网络解决该任务。 |
235 |
在这项工作中,我们开始研究一种新的范式,以消除研究中的内部处理中的偏见,这种内部研究介于处理中和处理后方法之间。 |
|
236 |
本文提出了两种有效的算法,用于计算具有通用光滑非凸目标函数和通用线性约束的问题的近似二阶平稳点(SOSP)。 |
|
237 |
Model-based Policy Optimization with Unsupervised Model Adaptation |
在本文中,我们研究了如何弥补由于模型估计不准确而导致的真实数据与模拟数据之间的差距,从而实现更好的策略优化。 |
238 |
Implicit Regularization and Convergence for Weight Normalization |
在这里,我们研究权重归一化(WN)方法¥cite {salimans2016weight}和一个称为重新参数化投影梯度下降法(rPGD)的变体,用于过度参数化的最小二乘回归和一些更一般的损失函数。 |
239 |
在这项工作中,我们提出了一种计算效率高的BTD算法,即用于所有阶张量因数分解(GETF)的几何扩展,该算法从几何角度顺序确定张量的等级1基础分量。 |
|
240 |
在这里,我们提出了一种元学习方法,该方法无需进行通常次优的手动选择。 |
|
241 |
A/B Testing in Dense Large-Scale Networks: Design and Inference |
在本文中,我们提出了一种新颖的策略,可以准确地估算密集的大型网络中一类治疗的因果效应。 |
242 |
What Neural Networks Memorize and Why: Discovering the Long Tail via Influence Estimation |
在这项工作中,我们设计实验以测试该理论中的关键思想。 |
243 |
在本文中,我们研究了多视图数据聚类中的一个具有挑战性的问题。 |
|
244 |
Partial Optimal Tranport with applications on Positive-Unlabeled Learning |
在本文中,我们解决了部分Wasserstein问题和Gromov-Wasserstein问题,并提出了精确的算法来解决这些问题。 |
245 |
在本文中,我们专注于理解情节马尔可夫决策过程(MDP)中IL的极大极小统计极限。 |
|
246 |
在这项工作中,我们删除了先前工作的最大局限性假设,同时提供了更为严格的界限:过度参数化的网络只需要对数因子(除深度以外的所有变量)单位目标网络重量的神经元数。 |
|
247 |
Hold me tight! Influence of discriminative features on deep network boundaries |
在这项工作中,我们借鉴了对抗性鲁棒性领域的工具,并提出了将数据集特征与样本到决策边界的距离相关的新观点。 |
248 |
受到以上示例的启发,我们考虑一个模型,其中人口$¥cD $是两个可能不同的子种群的混合:私有和敏感数据的私有子种群$¥Dprv $,以及公共子种群无需担心隐私的$¥Dpub $数据。 |
|
249 |
在本文中,我们从一个新的角度研究了减肥格局,并确定了减肥格局的平坦性与鲁棒的广义缺口之间的明确关联。 |
|
250 |
Stateful Posted Pricing with Vanishing Regret via Dynamic Deterministic Markov Decision Processes |
在本文中,引入了一个相当普遍的在线问题,称为¥emph {带容量约束的动态资源分配(DRACC)},并在发布价格机制的领域中进行了研究。 |
251 |
在本文中,我们提出了一种针对未标记数据的新型对抗攻击,这使得该模型混淆了被干扰数据样本的实例级身份。 |
|
252 |
Normalizing Kalman Filters for Multivariate Time Series Analysis |
在此程度上,我们提出了一种将经典状态空间模型与深度学习方法相协调的新颖方法。 |
253 |
在这项工作中,我们表明可以通过训练模型来优化人类偏好来显着提高摘要质量。 |
|
254 |
Fourier Spectrum Discrepancies in Deep Network Generated Images |
在本文中,我们对真实和深层网络生成的图像的高频傅里叶模式进行了分析,并表明深层网络生成的图像在复制这些高频模式的属性方面存在可观察的系统缺陷。 |
255 |
具体来说,我们发现,由输入驱动的尖峰信号上的神经元的每一层进行的信号变换,可以解调由前一层引入的信号失真。 |
|
256 |
Learning Dynamic Belief Graphs to Generalize on Text-Based Games |
在这项工作中,我们研究了代理商如何使用从原始文本端到端学习到的图形结构表示法来计划和推广基于文本的游戏。 |
257 |
Triple descent and the two kinds of overfitting: where & why do they appear? |
在本文中,我们表明,尽管它们在表面上相似,但这两种情况本质上是不同的。 |
258 |
Multimodal Graph Networks for Compositional Generalization in Visual Question Answering |
在本文中,我们建议通过使用神经因子图在不同模式(例如图像和文本)之间引发更紧密的耦合来应对这一挑战。 |
259 |
Learning Graph Structure With A Finite-State Automaton Layer |
在这项工作中,我们研究了学习从固有图结构派生抽象关系的问题。 |
260 |
A Universal Approximation Theorem of Deep Neural Networks for Expressing Probability Distributions |
本文研究了用于表示概率分布的深层神经网络的通用逼近性质。 |
261 |
Unsupervised object-centric video generation and decomposition in 3D |
相反,我们建议将视频建模为在具有多个3D对象和3D背景的场景中移动时看到的视图。 |
262 |
Domain Generalization for Medical Imaging Classification with Linear-Dependency Regularization |
在本文中,我们介绍了一种简单有效的方法来提高深层神经网络在医学影像分类领域的泛化能力。 |
263 |
Multi-label classification: do Hamming loss and subset accuracy really conflict with each other? |
本文试图通过分析SA和HL测度上相应学习算法的学习保证来填补这一空白。 |
264 |
A Novel Automated Curriculum Strategy to Solve Hard Sokoban Planning Instances |
我们提出了一种新颖的{¥em自动}课程方法,该方法从{label困难量子量子动量}策略指导的各种任务复杂性的无标签训练实例中动态选择。 |
265 |
在这项工作中,我们考虑到自大流行开始以来Covid-19的扩散,研究了德国各地区之间的因果关系,同时考虑了不同联邦州实施的限制政策。 |
|
266 |
我们发现在阿尔法局部差分隐私的约束下,用于测试多项式或更一般的离散分布的分离率。 |
|
267 |
我们凭经验观察到,深层模型的梯度统计在训练过程中会发生变化。基于这种观察,我们引入了两种自适应量化方案:ALQ和AMQ。 |
|
268 |
针对非参数设置,其中平均报酬是一维协变量的未知函数,我们针对此问题提出了一种最佳策略。 |
|
269 |
Removing Bias in Multi-modal Classifiers: Regularization by Maximizing Functional Entropies |
为了缓解这一缺点,我们提出了一个基于函数熵的新颖的正则化项。 |
270 |
Compact task representations as a normative model for higher-order brain activity |
更具体地说,我们关注状态基于动作观察历史的MDP,并展示如何压缩状态空间以消除不必要的冗余,同时保留与任务相关的信息。 |
271 |
Robust-Adaptive Control of Linear Systems: beyond Quadratic Costs |
在必须避免故障的关键环境中,我们考虑具有未知参数的线性系统的鲁棒和自适应模型预测控制(MPC)问题(自适应)。 |
272 |
在本文中,我们研究了将种子用户分配给反对运动的问题:通过利用传统媒体上政治运动的等时规则,我们的目标是将种子用户分配给运动者,目的是最大化预期的用户数量谁同时参加了这两个广告系列。 |
|
273 |
在本文中,我们表明,构建保留3维潜在空间的几何形状有助于网络同时学习对象坐标空间中的全局形状规则和局部推理,从而提高性能。 |
|
274 |
Reinforcement Learning for Control with Multiple Frequencies |
在本文中,我们对RL中的多个控制频率问题进行形式化,并提供其有效的解决方法。 |
275 |
Complex Dynamics in Simple Neural Networks: Understanding Gradient Flow in Phase Retrieval |
在这里,我们专注于从随机测量中获取相位的梯度流动力学。 |
276 |
Neural Message Passing for Multi-Relational Ordered and Recursive Hypergraphs |
在这项工作中,我们首先将不同结构上的现有MPNN统一到G-MPNN(通用MPNN)框架中。 |
277 |
在本文中,我们给出了这两种方法的统一视图以及MLLS的第一个理论特征。 |
|
278 |
Optimal Private Median Estimation under Minimal Distributional Assumptions |
我们研究了一项基本任务,即在纯差分隐私约束下,从有限数量的样本中估算基础分布的中位数。 |
279 |
在本文中,我们开发了新颖的编码和解码机制,可以在各种规范设置下同时实现最佳的隐私和通信效率。 |
|
280 |
我们在这项工作中的主要目的是探索这种转换的合理性,并确定能够将声音与视觉事件相关联的线索和组件。 |
|
281 |
我们提出了一种新的神经ODE算法范例,称为ODEtoODE,其中主流的时间相关参数根据正交组O(d)上的矩阵流而演化。 |
|
282 |
这项工作提供了自我蒸馏的第一个理论分析。 |
|
283 |
Coupling-based Invertible Neural Networks Are Universal Diffeomorphism Approximators |
如果没有通用性,则可能存在行为良好的可逆转换,而CF-INN永远无法近似,因此将使模型类不可靠。我们通过显示一个方便的标准来回答这个问题:如果CF-INN的层包含仿射耦合和特殊情况下的可逆线性函数,则它是通用的。 |
284 |
Community detection using fast low-cardinality semidefinite programming? |
在本文中,我们提出了一种新的低基数算法,该算法泛化了局部更新以最大化从max-k-cut导出的半确定松弛。 |
285 |
在本文中,我们首先使用具有高斯分布的随机变量对注释噪声建模,然后得出图像中每个空间位置的人群密度值的pdf。然后,我们用全协方差多元高斯密度来估计密度值的联合分布(即,密度图的分布),并得出易于实施的低秩近似。 |
|
286 |
我们将策略梯度方法转换为两个运算符的重复应用:一个策略改进运算符$¥mathcal {I} $,它将任何策略$¥pi $映射到一个更好的$¥mathcal {I}¥pi $,以及一个投影运算符$¥mathcal {P} $,它在可实现的策略集中找到$¥mathcal {I}¥pi $的最佳近似值。 |
|
287 |
Demystifying Contrastive Self-Supervised Learning: Invariances, Augmentations and Dataset Biases |
某种程度上,最近的性能提升来自神秘的训练实例分类模型,该模型将每个图像及其增强版本作为单个类的样本来对待。在这项工作中,我们首先提出定量实验以揭露这些收益的神秘性。 |
288 |
在本文中,我们提供了一种有效的近似算法,用于在在线设置中为数据点以任意顺序到达的确定点过程(DPP)找到大小为$ k $的最大似然配置(MAP)。从其本地内存中选择元素。 |
|
289 |
Video Object Segmentation with Adaptive Feature Bank and Uncertain-Region Refinement |
本文提出了一种新的基于匹配的半监督视频对象分割(VOS)框架。 |
290 |
强化学习通常侧重于使人工代理有效地学习新任务的算法设计,而在这里,我们开发了一个建模框架来直接推断动物用来获取新行为的经验学习规则。 |
|
291 |
在这项工作中,我们提出了一种新颖的后门攻击技术,其中触发因输入而异。 |
|
292 |
How hard is to distinguish graphs with graph neural networks? |
这项研究得出了消息传递模型(MPNN)中图形同构的分类变量的硬度结果。 |
293 |
Minimax Regret of Switching-Constrained Online Convex Optimization: No Phase Transition |
在本文中,我们表明,少于$ K $的$ T $舍入切换的OCO具有$¥Theta(¥frac {T} {¥sqrt {K}})$的极小极大遗憾。 |
294 |
Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp Adversarial Attacks |
为了部分回答这个问题,我们考虑了基础数据的多种信息可用的情况。 |
295 |
Cross-Scale Internal Graph Neural Network for Image Super-Resolution |
在本文中,我们探索了自然图像的跨尺度斑块递归特性,即相似的斑块往往在不同尺度上重复多次。 |
296 |
Unsupervised Representation Learning by Invariance Propagation |
在本文中,我们提出不变性传播,专注于学习类别级别变异的不变表示,该表示由同一类别的不同实例提供。 |
297 |
在本文中,我们通过引入一个新的基于负代表和正代表的度量学习框架以及一个具有负代表和正代表的新推理方案,来恢复少发物体检测中的负信息。 |
|
298 |
在这项工作中,我们确定了另一个方面:我们发现对抗性强健的模型虽然准确性较低,但在用于迁移学习时通常比其标准训练的模型表现更好。 |
|
299 |
Robust Correction of Sampling Bias using Cumulative Distribution Functions |
我们通过对Vapnik和Izmailov提出的最新想法进行严格归纳,提出了一种使用目标分布的经验累积分布函数估计值处理协变量偏移的新方法。 |
300 |
Personalized Federated Learning with Theoretical Guarantees: A Model-Agnostic Meta-Learning Approach |
在本文中,我们研究了联合学习的个性化变体,其中我们的目标是找到一个初始共享模型,该模型可以通过对当前用户或新用户执行一个或几个梯度下降步骤来轻松地适应其本地数据集。自己的数据。 |
301 |
Pixel-Level Cycle Association: A New Perspective for Domain Adaptive Semantic Segmentation |
在本文中,我们建议在源像素对和目标像素对之间建立像素级循环关联,并以对比方式增强它们的连接以减小域间隙并使特征更具区分性。 |
302 |
在本文中,我们针对分类和无序响应标签开发了这些技术的专门版本,这些标签除了提供边际覆盖率之外,还完全适应复杂的数据分布,从某种意义上说,与条件条件覆盖率相比,它们具有良好的性能。替代方法。 |
|
303 |
Learning Global Transparent Models consistent with Local Contrastive Explanations |
在这项工作中,我们探索一个问题:我们能否产生一个透明的全局模型,该模型同时准确且与黑匣子模型的本地(对比)说明一致? |
304 |
在本文中,我们着重于从监督中近似任意Bregman散度的问题,并且我们提供了一种很好的原则来分析这种近似。 |
|
305 |
Diverse Image Captioning with Context-Object Split Latent Spaces |
为此,我们引入了一种潜在空间的新颖分解,称为上下文对象拆分,以对数据集中图像和文本之间的上下文描述中的多样性进行建模。 |
306 |
Learning Disentangled Representations of Videos with Missing Data |
我们介绍了Disentangled估算视频自动编码器(DIVE),这是一种深度生成模型,可以在缺少数据的情况下估算和预测未来的视频帧。 |
307 |
在这里,我们表明,代替等方差,更一般的自然性概念足以使图网络得到明确定义,从而打开了一类更大的图网络。 |
|
308 |
Continual Learning with Node-Importance based Adaptive Group Sparse Regularization |
我们提出了一种新颖的基于正则化的连续学习方法,称为“基于自适应组稀疏性的持续学习(AGS-CL)”,它使用了两个基于组稀疏性的惩罚。 |
309 |
Towards Crowdsourced Training of Large Neural Networks using Decentralized Mixture-of-Experts |
在这项工作中,我们提出了Learning @ home:一种新颖的神经网络训练范例,旨在处理大量连接不良的参与者。 |
310 |
将自然文档句词结构纳入分级贝叶斯建模中,我们提出了卷积泊松伽马动力系统(PGDS),该系统不仅引入了词级概率卷积,还引入了句子级随机时态过渡。 |
|
311 |
为了检验该假设,我们引入了一个基于Deep InfoMax(DIM)的目标,该目标通过最大化代理在连续时间步长的内部表示之间的相互信息来训练代理预测未来。 |
|
312 |
我们以等级损失的结构化特征的形式提供了对此问题的答案,对于该损失,适当的回归是一致的。 |
|
313 |
Distribution-free binary classification: prediction sets, confidence intervals and calibration |
对于无分布设置中的二进制分类,我们研究了不确定性量化的三个概念-校准,置信区间和预测集-即无需对数据进行任何分布假设。 |
314 |
Closing the Dequantization Gap: PixelCNN as a Single-Layer Flow |
在本文中,我们介绍了子集流,这是一类流,可以灵活地转换有限体积,因此可以精确计算离散数据的可能性。 |
315 |
Sequence to Multi-Sequence Learning via Conditional Chain Mapping for Mixture Signals |
在这项工作中,我们着重于一对多序列转导问题,例如从混合序列中提取多个序列源。 |
316 |
Variance reduction for Random Coordinate Descent-Langevin Monte Carlo |
我们通过一个反例表明,在最一般的情况下盲目应用RCD并不能达到目标。 |
317 |
Language as a Cognitive Tool to Imagine Goals in Curiosity Driven Exploration |
我们介绍了IMAGINE,这是一种内在动机的深度强化学习体系结构,可以对这种能力进行建模。 |
318 |
在这项研究中,为了减少参数的总数,通过转换共享嵌入来表示所有单词的嵌入。 |
|
319 |
Primal Dual Interpretation of the Proximal Stochastic Gradient Langevin Algorithm |
我们考虑关于对数凹概率分布的采样任务。 |
320 |
How to Characterize The Landscape of Overparameterized Convolutional Neural Networks |
具体来说,我们考虑连续极限中超参数化卷积神经网络(CNN)的损耗情况,其中隐藏层中的通道/隐藏节点数达到无穷大。 |
321 |
On the Tightness of Semidefinite Relaxations for Certifying Robustness to Adversarial Examples |
在本文中,我们描述了一种几何技术,该技术确定此SDP证书是否准确,这意味着它既提供最小对抗性扰动大小的下限,又提供达到该下限的全局最优扰动。 |
322 |
在本文中,我们介绍了元学习框架的离散形式。 |
|
323 |
我们的研究通过以下三点发现揭示了自我训练的一般性和灵活性:1)更强大的数据增强功能和更多标记数据进一步降低了预训练的价值; 2)与预训练不同,使用更强大的自我训练总是有帮助的在低数据和高数据两种情况下的数据增强,以及3)在预训练有帮助的情况下,自训练会在预训练后得到改善。 |
|
324 |
Unsupervised Sound Separation Using Mixture Invariant Training |
在本文中,我们提出了一种完全无监督的方法,即混合不变训练(MixIT),该方法仅需要单通道声学混合。 |
325 |
Adaptive Discretization for Model-Based Reinforcement Learning |
我们介绍了自适应离散化技术,以在大型(可能是连续的)状态动作空间中设计一种有效的基于模型的情节强化学习算法。 |
326 |
CodeCMR: Cross-Modal Retrieval For Function-Level Binary Source Code Matching |
本文提出了一种用于二进制源代码匹配的端到端跨模式检索网络,该网络可以实现更高的准确性,并且需要较少的专家经验。 |
327 |
在这项工作中,我们仔细研究了这种经验现象,并试图了解它何时以及如何发生。 |
|
328 |
DAGs with No Fears: A Closer Look at Continuous Optimization for Learning Bayesian Networks |
根据KKT条件,提出了一种本地搜索后处理算法,并表明该算法可以实质上普遍地提高所有测试算法的结构汉明距离,通常提高2倍或更多。 |
329 |
OOD-MAML: Meta-Learning for Few-Shot Out-of-Distribution Detection and Classification |
我们提出了一种简单的学习方法,用于从训练过程中看不到的类别中检测出分布失调(OOD)样本,同时仅使用一些标记的示例对可见类别中的样本进行分类。 |
330 |
An Imitation from Observation Approach to Transfer Learning with Dynamics Mismatch |
在本文中,我们证明了这种转移问题的一种现有解决方案-扎根的动作转换-与观察观察的模仿问题(IfO)密切相关:学习模仿行为演示观察结果的行为。 |
331 |
从通过玩耍和互动从周围环境中学习的婴儿中汲取灵感,我们提出了一种计算框架,以沿着这种从互动中学习的范式发现对象并学习其物理特性。 |
|
332 |
我们提出了一种新颖的方法来估计总变化量度中具有(潜在)无限支持的离散分布。 |
|
333 |
在这项工作中,我们“打开了盒子”,进一步发展了连续深度的公式化,目的是弄清几种设计选择对基本动力的影响。 |
|
334 |
在本文中,我们从另一角度研究了监督的GAN问题,这是由著名的波斯诗人Rumi的哲学所驱动的,他说:“知道的艺术就是知道要忽略什么。” |
|
335 |
Counterfactual Data Augmentation using Locally Factored Dynamics |
我们提出了一种基于给定的面向对象状态表示来推断这些结构的方法,以及一种用于反事实数据增强(CoDA)的新颖算法。 |
336 |
Rethinking Learnable Tree Filter for Generic Feature Transform |
为了放松几何约束,我们通过将其重新构造为马氏随机场来进行分析,并引入一个可学习的一元项。 |
337 |
Self-Supervised Relational Reasoning for Representation Learning |
在这项工作中,我们提出了一种新的自我监督的关系推理方法,使学习者可以从未标记数据中隐含的信息中引导信号。 |
338 |
Sufficient dimension reduction for classification using principal optimal transport direction |
为了解决这个问题,我们提出了一种使用最优传输的充分降维子空间(SDR子空间)的新颖估计方法。 |
339 |
在本文中,我们重点关注Wasserstein分布鲁棒支持向量机(DRSVM)问题,并提出了两种新的基于射影投影的增量算法来解决这些问题。 |
|
340 |
Differentially Private Clustering: Tight Approximation Ratios |
对于一些基本的聚类问题,包括欧几里得DensestBall,1-Cluster,k-means和k-median,我们给出了有效的差分私有算法,该算法可实现与任何非私有算法可获得的近似比率,而仅引起很小的附加误差。 |
341 |
我们提供了用于分析Louvain的有价值的工具,还提供了许多其他组合算法的工具。 |
|
342 |
Fairness with Overlapping Groups; a Probabilistic Perspective |
在算法上公平的预测问题中,一个标准目标是确保多个重叠组之间的公平性指标同时相等。我们使用概率总体分析重新考虑这个标准的公平分类问题,从而揭示贝叶斯最优分类器。 |
343 |
AttendLight: Universal Attention-Based Reinforcement Learning Model for Traffic Signal Control |
我们提出AttendLight,一种用于交通信号控制问题的端到端强化学习(RL)算法。 |
344 |
因此,我们提出将任意量化神经网络中的离散权重视为可搜索变量,并利用差分方法对其进行精确搜索。 |
|
345 |
为了补充上限,我们引入了新技术来为该问题的任何算法的性能建立下限。 |
|
346 |
From Predictions to Decisions: Using Lookahead Regularization |
为此,我们引入了前瞻性正则化,它通过预期用户操作来鼓励预测模型也诱导出可以改善结果的操作。 |
347 |
Sequential Bayesian Experimental Design with Variable Cost Structure |
我们提出并演示了一种在优化决策中考虑这些可变成本的算法。 |
348 |
Predictive inference is free with the jackknife+-after-bootstrap |
在本文中,我们提出了“折刀+后引导程序”(J + aB),这是一种构建预测间隔的程序,该程序仅使用可用的自举示例及其相应的拟合模型,因此在成本方面“免费”模型拟合。 |
349 |
我们提出了一种在这种情况下学习反事实预测模型的双稳健程序。 |
|
350 |
本文提出了一种新颖的实例级测试时间扩充,可以有效地为测试输入选择合适的转换。 |
|
351 |
在本文中,我们证明了Softmax函数尽管在大多数分类任务中使用,但在长尾设置下给出了有偏差的梯度估计。 |
|
352 |
本文提出了一个称为贝叶斯优化-IRL(BO-IRL)的IRL框架,该框架通过有效地探索奖励函数空间来确定与专家论证相一致的多个解决方案。 |
|
353 |
MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning |
本文介绍了用于深度强化学习的MDP同态网络。 |
354 |
How Can I Explain This to You? An Empirical Study of Deep Neural Network Explanation Methods |
我们进行了一项交叉分析Amazon Mechanical Turk研究,比较了流行的最新技术解释方法,以凭经验确定哪种方法更能解释模型决策。 |
355 |
在这项工作中,我们在数据上确定了一组条件,在这些条件下,此类替代损失最小化算法可证明学习正确的分类器。 |
|
356 |
我们的核心贡献在于一个非常简单的想法:将扩展的日志策略添加到即时奖励中。 |
|
357 |
Object Goal Navigation using Goal-Oriented Semantic Exploration |
我们提出了一个名为“面向目标的语义探索”的模块化系统,该系统可构建情节性语义图,并根据目标对象类别使用它来有效地探索环境。 |
358 |
Efficient semidefinite-programming-based inference for binary and multi-class MRFs |
在本文中,我们提出了一种有效的方法来计算成对MRF中的分区函数或MAP估计,方法是利用最近提出的基于坐标下降的快速半定值求解器。 |
359 |
Funnel-Transformer: Filtering out Sequential Redundancy for Efficient Language Processing |
基于这种直觉,我们提出了一种漏斗变换程序,该程序逐渐将隐藏状态序列压缩为较短的状态,从而降低了计算成本。 |
360 |
本文通过简单地观看YouTube视频,学习并利用了这种语义线索,以在新颖的环境中导航至感兴趣的对象。 |
|
361 |
Heavy-tailed Representations, Text Polarity Classification & Data Augmentation |
在本文中,我们开发了一种新颖的方法来学习关于分布尾部具有理想规则性的重尾嵌入,该方法允许使用多元极值理论的框架来分析远离分布体的点。 |
362 |
相反,我们提出了一种简单而通用的方法,该方法可以应用于各种损失和任务,而无需改变学习过程。 |
|
363 |
CogMol: Target-Specific and Selective Drug Design for COVID-19 Using Deep Generative Models |
在这项研究中,我们提出了一个名为CogMol(分子的受控代)的端到端框架,用于设计以高亲和力和脱靶选择性靶向新型病毒蛋白的新型药物样小分子。 |
364 |
Memory Based Trajectory-conditioned Policies for Learning from Sparse Rewards |
在这项工作中,我们建议不要学习专注于有限多样性的良好体验,而应该学习一种基于轨迹的策略,以遵循并扩展内存缓冲区中过去的各种轨迹。 |
365 |
Liberty or Depth: Deep Bayesian Neural Nets Do Not Need Complex Weight Posterior Approximations |
我们质疑长期以来的假设,即贝叶斯神经网络中用于变化推断的均值场近似具有严格的限制性,并表明在深度网络中并非如此。 |
366 |
Improving Sample Complexity Bounds for (Natural) Actor-Critic Algorithms |
相比之下,本文描述了在马尔可夫抽样下AC和NAC的收敛速度和样本复杂度,其中每次迭代具有小批量数据,并且参与者具有通用策略类近似。 |
367 |
我们建议一种补救措施,以鼓励更轻松地解决所学动态。 |
|
368 |
Stability of Stochastic Gradient Descent on Nonsmooth Convex Losses |
具体来说,我们为任意形式的Lipschitz非光滑凸损失提供了几种形式的SGD和全批次GD的清晰上下限。 |
369 |
Influence-Augmented Online Planning for Complex Environments |
在这项工作中,我们提出了影响力增强的在线计划,这是将整个环境的分解模拟器转换为本地模拟器的一种原理方法,该本地模拟器仅对与计划代理的观察和奖励最相关的状态变量进行采样并捕获使用机器学习方法从其他环境中传入的影响。 |
370 |
我们为样本依赖先验的随机算法提供了一系列新的PAC-Bayes学习保证。 |
|
371 |
Reward-rational (implicit) choice: A unifying formalism for reward learning |
我们的主要观察结果是,可以在一个统一的形式主义中解释不同类型的行为,这是人类做出的一种奖励理性选择,通常是隐含的。 |
372 |
Probabilistic Time Series Forecasting with Shape and Temporal Diversity |
在本文中,我们针对非平稳时间序列解决此问题,这是非常具有挑战性但至关重要的。 |
373 |
Low Distortion Block-Resampling with Spatially Stochastic Networks |
我们形式化并解决了从尽可能多的旧图像生成新图像的问题,只允许它们在图像的某些部分不受限制地进行更改,同时保持全局一致。 |
374 |
Continual Deep Learning by Functional Regularisation of Memorable Past |
在本文中,我们通过使用一种新的功能正则化方法来解决此问题,该方法利用了一些令人难忘的重要示例来避免遗忘。 |
375 |
Distance Encoding: Design Provably More Powerful Neural Networks for Graph Representation Learning |
在这里,我们提出并用数学方法分析了与结构相关的特征的通用类,称为距离编码(DE)。 |
376 |
在这项工作中,我们提出了一种被称为快速傅里叶卷积(FFC)的新颖卷积算子,它具有非局部接收场和卷积单元内跨尺度融合的主要特征。 |
|
377 |
在本文中,我们提出了与视图无关的密集表示(VADeR),用于无监督学习密集表示。 |
|
378 |
在这项工作中,我们提出了一个框架,可在不更改基础平滑方案的情况下改善这些平滑分类器的认证安全区域。 |
|
379 |
Learning Structured Distributions From Untrusted Batches: Faster and Simpler |
在本文中,我们找到了一种吸引人的方法来综合[JO19]和[CLM19]的技术,以充分利用两个方面的优势:一种在多项式时间内运行并且可以利用基础分布中的结构实现亚线性样本复杂度的算法。 |
380 |
这使我们引入了一个新的目标,用于训练分层VQ-VAE。 |
|
381 |
Diversity can be Transferred: Output Diversification for White- and Black-box Attacks |
为了提高这些攻击的效率,我们提出了输出多样化采样(ODS),这是一种新颖的采样策略,旨在使目标模型的输出在生成的样本之间的多样性最大化。 |
382 |
POLY-HOOT: Monte-Carlo Planning in Continuous Space MDPs with Non-Asymptotic Analysis |
在本文中,我们考虑了具有连续状态动作空间的环境中的蒙特卡洛规划,这在控制和机器人技术中的重要应用中鲜为人知。 |
383 |
我们通过提高人类控制环境的能力提出了一种新的援助范式,并通过赋予人类权力来增强强化学习,从而使这种方法正式化。 |
|
384 |
Variational Policy Gradient Method for Reinforcement Learning with General Utilities |
在本文中,我们考虑了马尔可夫决策问题中的策略优化,其中目标是状态行为占用度量的通用效用函数,该函数将上述几个示例归为特例。 |
385 |
Reverse-engineering recurrent neural network solutions to a hierarchical inference task for mice |
我们研究递归神经网络(RNN)如何解决涉及两个潜在变量和以1-2个数量级分开的不同时间尺度的层次推理任务。 |
386 |
Temporal Positive-unlabeled Learning for Biomedical Hypothesis Generation via Risk Estimation |
我们提出了一种变分推理模型来估计正先验,并将其结合到节点对嵌入的学习中,然后将其用于链路预测。 |
387 |
Efficient Low Rank Gaussian Variational Inference for Neural Networks |
通过使用新形式的重新参数化技巧,我们得出了一种计算效率高的算法,该算法可通过具有低秩加对角协方差结构的高斯族执行VI。 |
388 |
在本文中,我们着重于在联邦学习(FL)的设置中进行类似DP-SGD的迭代方法,其中数据分布在许多设备(客户端)之间。 |
|
389 |
Probabilistic Circuits for Variational Inference in Discrete Graphical Models |
在本文中,我们提出了一种新的方法,该方法利用概率电路模型(例如Sum Product Networks(SPN))的可处理性,为特定密度的类别准确(无需采样)计算ELBO梯度。 |
390 |
Your Classifier can Secretly Suffice Multi-Source Domain Adaptation |
在这项工作中,我们提出了与MSDA不同的观点,其中观察到了深度模型以在标签监督下隐式对齐域。 |
391 |
Labelling unlabelled videos from scratch with multi-modal self-supervision |
在这项工作中,我们(a)展示了视频数据集的无监督标记并非免费来自强特征编码器,并且(b)提出了一种新颖的聚类方法,该方法可以利用自然特征,对视频数据集进行伪标记而无需任何人工注释。视听方式之间的对应关系。 |
392 |
A Non-Asymptotic Analysis for Stein Variational Gradient Descent |
在本文中,我们为SVGD算法提供了一种新颖的有限时间分析。 |
393 |
Robust Meta-learning for Mixed Linear Regression with Small Batches |
我们介绍了一种在两种情况下都同时具有鲁棒性的频谱方法。 |
394 |
Bayesian Deep Learning and a Probabilistic Perspective of Generalization |
我们表明,深层合奏为近似贝叶斯边缘化提供了一种有效的机制,并提出了一种相关方法,该方法通过在吸引盆地内边缘化来进一步改善预测分布,而没有明显的开销。 |
395 |
Unsupervised Learning of Object Landmarks via Self-Training Correspondence |
本文解决了对象地标的无监督发现问题。 |
396 |
Randomized tests for high-dimensional regression: A more efficient and powerful solution |
在本文中,我们通过利用随机投影技术来肯定地回答这个问题,并提出了一种将经典的$ F $ -test与随机投影步骤混合的测试程序。 |
397 |
Learning Representations from Audio-Visual Spatial Alignment |
我们介绍了一种新颖的自我监督的借口任务,用于从视听内容中学习表示形式。 |
398 |
Generative View Synthesis: From Single-view Semantics to Novel-view Images |
我们建议进一步发展,并引入生成视图综合(GVS),它可以在给定单个语义图的情况下合成场景的多个真实感视图。 |
399 |
Towards More Practical Adversarial Attacks on Graph Neural Networks |
因此,我们提出了一种贪婪程序来校正考虑到收益递减模式的重要性得分。 |
400 |
因此,我们不是在所有任务之间天真地共享参数,而是引入了一种关于策略表示的显式模块化技术来缓解此优化问题。 |
|
401 |
在本文中,我们提出了一个计算Shapley值的新颖框架,该框架概括了旨在绕开独立性假设的最新工作。 |
|
402 |
On the training dynamics of deep networks with $L_2$ regularization |
我们研究了$ L_2 $正则化在深度学习中的作用,并揭示了模型性能,$ L_2 $系数,学习率和训练步骤数之间的简单关系。 |
403 |
本文研究了极小极大优化问题minx maxy f(x,y),其中f(x,y)相对于x为mx凸,相对于y为my-强凹,(Lx,Lxy,Ly)-光滑。 |
|
404 |
在本文中,我们提出了一种直接利用完全卷积网络(FCN)来预测实例标签的新颖算法。 |
|
405 |
Learning Implicit Functions for Topology-Varying Dense 3D Shape Correspondence |
本文的目的是以一种无监督的方式学习拓扑变化对象的密集3D形状对应关系。 |
406 |
为此,本文提出了通道交换网络(CEN),这是一种无参数的多模态融合框架,可以在不同模态的子网之间动态交换通道。 |
|
407 |
Hierarchically Organized Latent Modules for Exploratory Search in Morphogenetic Systems |
在本文中,我们激发了对所谓的元多样性搜索的需求,认为没有独特的地面真理有趣的多样性,因为它很大程度上取决于最终观察者及其动机。 |
408 |
AI Feynman 2.0: Pareto-optimal symbolic regression exploiting graph modularity |
我们提出了一种改进的符号回归方法,该方法旨在将数据拟合为帕累托最优的公式,就给定复杂度而言具有最佳准确性的意义而言。 |
409 |
本文为具有延迟匪徒反馈的在线线性优化提供了一种几乎最佳的算法。 |
|
410 |
Probabilistic Orientation Estimation with Matrix Fisher Distributions |
本文着重于使用深度神经网络估计3D旋转集(SO(3))上的概率分布。 |
411 |
Minimax Dynamics of Optimally Balanced Spiking Networks of Excitatory and Inhibitory Neurons |
总体而言,我们提出了一种新颖的规范EI网络建模方法,超越了违反Dale定律的广泛使用的能量最小化网络。 |
412 |
为了解决此限制,我们引入了一个新的框架,即伸缩密度比估计(TRE),它可以估计高维空间中高度不同密度之间的比率。 |
|
413 |
Towards Deeper Graph Neural Networks with Differentiable Group Normalization |
为了弥合差距,我们引入了两个过度平滑的指标和一种新技术,即可区分组标准化(DGN)。 |
414 |
我们开始进行用于性能预测的随机优化研究。 |
|
415 |
Learning Differentiable Programs with Admissible Neural Heuristics |
我们研究学习以领域特定语言表示为程序的可区分功能的问题。 |
416 |
Improved guarantees and a multiple-descent curve for Column Subset Selection and the Nystrom method |
我们开发了利用数据矩阵的光谱特性来获得改进的近似保证的技术,这些保证已超出标准的最坏情况分析范围。 |
417 |
Domain Adaptation as a Problem of Inference on Graphical Models |
为了开发具有多个源域的自动域自适应方法,我们建议使用图形模型作为一种紧凑的方式来编码联合分布的变化属性,该属性可以从数据中学习,然后将域自适应视为一个问题。图形模型的贝叶斯推断。 |
418 |
Network size and size of the weights in memorization with two-layers neural networks |
相比之下,我们基于{¥em complex}(而不是{¥em real})重组对神经元提出了一种针对ReLU网络的新训练程序,为此,我们展示了$ O¥left(¥frac { n} {d}¥cdot¥frac {¥log(1 /¥epsilon)} {¥epsilon}¥right)$神经元,以及权重的接近最佳大小。 |
419 |
我们提出了使用神经网络验证文献中的技术来明确验证特定估值配置文件下的策略可靠性的方法。 |
|
420 |
Continual Learning of Control Primitives : Skill Discovery via Reset-Games |
在这项工作中,我们将展示一种单一方法如何使座席能够在最少的监督下获得技能,同时又无需重置。 |
421 |
HOI Analysis: Integrating and Decomposing Human-Object Interaction |
类似于谐波分析(旨在研究如何用基波叠加表示信号),我们提出了HOI分析。 |
422 |
Strongly local p-norm-cut algorithms for semi-supervised learning and local graph clustering |
在本文中,我们提出了涉及p范数的这些方法背后的目标函数的一般化。 |
423 |
我们开发了深度直接可能性仿制(DDLK),可直接将仿制掉期属性所隐含的KL差异最小化。 |
|
424 |
在这项工作中,我们朝着这个方向前进,并提出了一种半参数方法,即Meta-Neighborhoods,其中对输入的邻域进行自适应预测。 |
|
425 |
Neural Dynamic Policies for End-to-End Sensorimotor Learning |
在这项工作中,我们开始弥合这一差距,并通过用微分方程对动作空间进行重新参数化,将动力学结构嵌入基于深度神经网络的策略中。 |
426 |
在这里,我们开发了一个两步推理策略,通过在每个训练步骤中从网络交互中明确地将刺激中相关性的影响分离出来,从而使我们能够训练交互神经元的鲁棒广义线性模型。 |
|
427 |
基于这些理论结果,我们建议学习一些关于最佳模型的近似建议,并使用多重重要性抽样进行决策组合。 |
|
428 |
Attribution Preservation in Network Compression for Reliable Network Interpretation |
在本文中,我们证明了这些看似无关的技术会相互冲突,因为网络压缩会使产生的属性变形,从而可能导致关键任务应用程序遭受严重后果。 |
429 |
在本文中,我们提出了一种由运算符和选择器组成的新颖双网体系结构,用于发现固定大小的最佳特征子集,并同时在最佳子集中对这些特征的重要性进行排序。 |
|
430 |
当真正的混杂因素值可以表示为观测数据的函数时,我们研究因果推理;我们称此设置为功能混杂因子(EFC)。 |
|
431 |
我们建议使用模型反转网络(MIN)解决此类问题,该模型学习从得分到输入的逆映射。 |
|
432 |
Hausdorff Dimension, Heavy Tails, and Generalization in Neural Networks |
为了弥合这一差距,在本文中,我们假设SGD的轨迹可以通过¥emph {Feller process}很好地近似,从而证明了SGD的泛化界,¥emph {Feller process}定义了丰富的Markov过程,其中包括最近的几种SDE表示形式(布朗氏或重尾)为特例。 |
433 |
Exact expressions for double descent and implicit regularization via surrogate random design |
我们为最小范数线性估计的两次下降提供了第一个确切的非渐近表达式。 |
434 |
在这项工作中,我们提出了一种为平滑分类器的预测置信度生成认证半径的方法。 |
|
435 |
我们提出了一个新的神经网络家族,通过学习其基础约束来预测物理系统的行为。 |
|
436 |
Robust Optimization for Fairness with Noisy Protected Groups |
首先,我们研究天真地依赖受噪声保护的组标签的后果:当满足噪声组^ G的公平性标准时,我们为真实组G的公平性违反提供了上限。 |
437 |
Noise-Contrastive Estimation for Multivariate Point Processes |
我们展示了如何代替使用噪声对比估计的一种方法,这种方法是一种具有较便宜的随机目标的通用参数估计方法。 |
438 |
A Game-Theoretic Analysis of the Empirical Revenue Maximization Algorithm with Endogenous Sampling |
我们概括了Lavi等人(2019)提出的激励意识度量的定义,以量化由于N个输入样本中m> = 1的变化而导致的ERM产出价格下降,并提供了该度量的特定收敛率当不同类型的输入分布的N变为无穷大时,该值变为零。 |
439 |
Neural Path Features and Neural Path Kernel : Understanding the role of gates in deep learning |
在本文中,我们分析性地描述了门和主动子网在深度学习中的作用。 |
440 |
我们提出了一类新的隐式网络,即多尺度深度均衡模型(MDEQ),适用于大规模和高度分层的模式识别域。 |
|
441 |
我们引入了稀疏图形内存(SGM),这是一种在稀疏内存中存储状态和可行转换的新数据结构。 |
|
442 |
Second Order PAC-Bayesian Bounds for the Weighted Majority Vote |
我们提出了在多类分类中加权多数投票的预期风险的新颖分析。 |
443 |
在这项工作中,我们提出了以图簇隶属度为潜在因子的Dirichlet图变分自编码器(DGVAE)。 |
|
444 |
Modeling Task Effects on Meaning Representation in the Brain via Zero-Shot MEG Prediction |
在当前的工作中,我们研究参与者的脑磁记录(MEG)脑记录,这些记录负责回答有关具体名词的问题。 |
445 |
Counterfactual Vision-and-Language Navigation: Unravelling the Unseen |
我们提出了一种新的学习策略,可以从观察值和生成的反事实环境中学习。 |
446 |
为了解决此问题,我们提出了一种针对各种量化过程为模型提供固有鲁棒性的方法。 |
|
447 |
在这项工作中,我们提出了一种一阶双重SDP算法,该算法提供(1)任意时间限制(2)仅要求内存在网络激活总数中是线性的,并且(3)迭代复杂度与通过网络前进/后退的复杂性。 |
|
448 |
我们提出了联邦加速随机梯度下降(FedAc),联邦平均化的原理性加速(FedAvg,也称为本地SGD),以进行分布式优化。 |
|
449 |
我们研究了在Huber污染模型下非参数密度估计的最小极大收敛速度,在该模型中,数据的“被污染”部分来自未知的离群值分布。 |
|
450 |
An analytic theory of shallow networks dynamics for hinge loss classification |
在本文中,我们详细研究了一种简单类型的神经网络的训练动力学:单个隐藏层经过训练以执行分类任务。 |
451 |
Fixed-Support Wasserstein Barycenters: Computational Hardness and Fast Algorithm |
我们研究固定支持的Wasserstein重心问题(FS-WBP),该问题包括计算在大小为$ n $的有限度量空间上支持的$ m $个离散概率测度的Wasserstein重心。 |
452 |
Learning to Orient Surfaces by Self-supervised Spherical CNNs |
在这项工作中,我们展示了为点云表示的表面学习鲁棒的规范方向的可行性。 |
453 |
在本文中,我们提出了一个亚当的概括,称为亚当斯(Adambs),它使我们也可以根据它们在模型收敛中的重要性来适应不同的训练示例。 |
|
454 |
利用这种抛物线属性,我们引入了一种简单而强大的线搜索方法,该方法执行与损耗形状有关的更新步骤。 |
|
455 |
我们考虑了通过期望的平方损失$¥E _ {(x,y)¥sim¥mathcal {D}} [(¥sigma(w ^¥top x)-y)来学习最适合的单个神经元的问题。 ^ 2] $超过某些未知的联合分布$¥mathcal {D} $,方法是使用梯度下降来最小化一组iid样本$ S¥sim¥mathcal {D} ^ n $引起的经验风险。 |
|
456 |
Statistical Efficiency of Thompson Sampling for Combinatorial Semi-Bandits |
我们建议通过分析组合汤普森抽样政策(CTS)的变体来回答这两个家庭的上述问题。 |
457 |
Analytic Characterization of the Hessian in Shallow ReLU Models: A Tale of Symmetry |
我们考虑与针对平方损失拟合两层ReLU网络相关的优化问题,其中标签是由目标网络生成的。 |
458 |
我们开发了一种方法,用于基于学习到的数据的低维表示来生成黑箱分类器的因果事后解释。 |
|
459 |
Sub-sampling for Efficient Non-Parametric Bandit Exploration |
在本文中,我们提出了第一个基于重采样的多武装强盗算法,该算法同时为不同的武器族(即伯努利,高斯和泊松分布)同时实现了渐近最优后悔。 |
460 |
Learning under Model Misspecification: Applications to Variational and Ensemble methods |
在这项工作中,我们提出了使用新的二阶PAC-Bayes边界族在模型错误指定和iid数据下对贝叶斯模型平均化泛化性能的新颖分析。 |
461 |
Language Through a Prism: A Spectral Approach for Multiscale Language Representations |
我们建议建立模型,以深度表示形式隔离特定于规模的信息,并开发鼓励在训练过程中模型的方法,以了解更多有关特定尺度的信息。 |
462 |
DVERGE: Diversifying Vulnerabilities for Enhanced Robust Generation of Ensembles |
我们提出了DVERGE,它通过提炼非鲁棒特征来隔离每个子模型中的对抗性漏洞,并使对抗性漏洞多样化,从而引发针对转移攻击的多种输出。 |
463 |
Towards practical differentially private causal graph discovery |
在本文中,我们提出了一种差分私有因果图发现算法Priv-PC,与现有技术相比,该算法可改善实用性和运行时间。 |
464 |
Independent Policy Gradient Methods for Competitive Reinforcement Learning |
在具有两个代理的竞争性强化学习环境中,我们获得了独立学习算法的全局非渐近收敛性保证(即零和随机游戏)。 |
465 |
The Value Equivalence Principle for Model-Based Reinforcement Learning |
在本文中,我们认为基于模型的RL代理的有限表示资源可以更好地用于构建直接用于基于价值的计划的模型。 |
466 |
在这项工作中,我们通过在卷积神经网络构件的隐式结构中利用冗余来解决模型效率。 |
|
467 |
在这项工作中,我们考虑奖励稀疏的部分可观察环境。 |
|
468 |
Estimating Rank-One Spikes from Heavy-Tailed Noise via Self-Avoiding Walks |
在这项工作中,我们展示了一种估计器,该估计器可处理高达BBP阈值的重尾噪声,即使对于高斯噪声,该估计值也是最佳的。 |
469 |
在本文中,我们提出了Oracle政策价值的州级最大值作为解决多个Oracle冲突建议的自然基准。 |
|
470 |
Training Generative Adversarial Networks by Solving Ordinary Differential Equations |
从这个角度出发,我们假设训练GAN的不稳定性是由离散连续动力学中的积分误差引起的。 |
471 |
我们介绍了NeurISE,这是一种用于图形模型学习的基于神经网络的算法,旨在解决GRISE的这一局限性。 |
|
472 |
RepPoints v2: Verification Meets Regression for Object Detection |
在本文中,我们采用了这种理念来改进最新的对象检测,特别是通过RepPoints。 |
473 |
Unfolding the Alternating Optimization for Blind Super Resolution |
针对这些问题,我们无需采用单独的两个步骤,而是采用交替优化算法,该算法可以估计模糊核并在单个模型中恢复SR图像。 |
474 |
Entrywise convergence of iterative methods for eigenproblems |
在这里我们解决了当在?2?中测量距离时子空间迭代的收敛性。规范并提供确定性界限。 |
475 |
Learning Object-Centric Representations of Multi-Object Scenes from Multiple Views |
为了解决这个问题,我们建议使用¥textit {Multi-View and Multi-Object Network(MulMON)}-一种通过利用多个视图来学习准确,以对象为中心的多对象场景表示的方法。 |
476 |
我们引入了通用的¥emph {two-loop}方案,以实现具有强凸凹目标的平滑minimax优化。 |
|
477 |
Self-supervised Co-Training for Video Representation Learning |
本文的目标是仅视觉的自我监督视频表示学习。 |
478 |
在摄动模型框架内,我们介绍了随机的softmax技巧,这些技巧将Gumbel-Softmax技巧推广到组合空间。 |
|
479 |
我们介绍了元增强的信息理论框架,其中添加随机性会阻止基础学习者和模型学习无法推广到新任务的琐碎解决方案。 |
|
480 |
SLIP: Learning to predict in unknown dynamical systems with long-term memory |
我们提出了一种有效且实用的(多项式时间)算法,用于在随机噪声下未知和部分观测到的线性动力系统(LDS)中进行在线预测。 |
481 |
Improving GAN Training with Probability Ratio Clipping and Sample Reweighting |
为解决此问题,我们提出了一种新的变式GAN训练框架,该框架具有出色的训练稳定性。 |
482 |
我们介绍贝叶斯比特,这是一种通过基于梯度的优化进行联合混合精度量化和修剪的实用方法。 |
|
483 |
本文的主要贡献是对上述挑战的肯定回答:受Barbarik的激励,但我们使用不同的技术和分析,设计了Barbarik2,该算法可测试采样器生成的分布是否为ε-距离或ε-距离。任何目标分布。 |
|
484 |
Gaussian Process Bandit Optimization of the Thermodynamic Variational Objective |
本文介绍了一种定制的高斯过程土匪优化方法,用于自动选择这些点。 |
485 |
MiniLM: Deep Self-Attention Distillation for Task-Agnostic Compression of Pre-Trained Transformers |
在这项工作中,我们提出了一种简单有效的方法来压缩大型变压器(Vaswani等,2017)的预训练模型,称为深度自注意蒸馏。 |
486 |
Optimal Epoch Stochastic Gradient Descent Ascent Methods for Min-Max Optimization |
在本文中,我们通过对解决强凸强凹(SCSC)最小-最大问题的时变随机梯度下降上升方法(简称Epoch-GDA)进行了清晰的分析,从而弥合了这一差距,而无需对光滑度或功能的结构。 |
487 |
在本文中,我们介绍了伍德伯里变换,该变换通过伍德伯里矩阵恒等式实现有效的可逆性,并通过西尔维斯特的行列式恒等式实现有效的行列式计算。 |
|
488 |
在本文中,我们提出了一种图对比学习(GraphCL)学习框架,用于学习图数据的无监督表示。 |
|
489 |
在这项工作中,我们确定了导致有害梯度干扰的多任务优化环境的三个条件,并开发了一种简单而通用的方法来避免任务梯度之间的这种干扰。 |
|
490 |
Bayesian Probabilistic Numerical Integration with Tree-Based Models |
本文提出了一种基于贝叶斯可加回归树(BART)先验的新贝叶斯数值积分算法(我们称为BART-Int)来解决此问题。 |
491 |
我们研究了非线性深层网络的训练动力学,损失景观的几何形状以及与数据相关的NTK的时间演变之间的关系。 |
|
492 |
在这里,我们介绍G-Meta,这是一种新颖的图元学习算法。 |
|
493 |
在本文中,我们提出了图上的随机深高斯过程(DGPG),这是一种深度结构模型,用于学习图域中输入和输出信号之间的映射。 |
|
494 |
Bayesian Causal Structural Learning with Zero-Inflated Poisson Bayesian Networks |
为了推断零膨胀计数数据中的因果关系,我们提出了一种新的零膨胀泊松贝叶斯网络(ZIPBN)模型。 |
495 |
在这项工作中,我们为GNN改编了常用的归因方法,并使用客观且具有挑战性的可计算基础对它们进行了定量评估。 |
|
496 |
在这项工作中,我们考虑了二阶神经ODE(SONODE)。 |
|
497 |
我们引入了一种新的多臂强盗算法,该算法能够比现有的Shapley值近似方法更快地检测到具有最大Shapley值数量级的神经元。 |
|
498 |
在这里,我们提出了一种用于采样目标密度的通用组合方法:随机归一化流(SNF)–确定性可逆函数和随机采样块的任意序列。 |
|
499 |
GPU-Accelerated Primal Learning for Extremely Fast Large-Scale Classification |
在这项工作中,我们表明使用明智的GPU优化原则,可以大幅减少针对不同损失和特征表示的TRON训练时间。 |
500 |
我们以非交换算术和几何均值的算子不等式为反例,这是一个长期的推测,与学习算法中随机改组的性能有关(Recht和Ré,“迈向非交换算术-几何平均不等式:猜想,案例研究,和后果”,COLT 2012)。 |
|
501 |
在本文中,我们提出了一种元方法,在给出典型的局部可解释性方法的情况下,该方法可以构建多级解释树。 |
|
502 |
NeuMiss networks: differentiable programming for supervised learning with missing values. |
在这项工作中,我们在线性假设和各种缺失数据机制(包括随机缺失(MAR)和自掩蔽(不随机缺失))下得出最优预测变量的分析形式。 |
503 |
Revisiting Parameter Sharing for Automatic Neural Channel Number Search |
在本文中,我们旨在为CNS提供更好的理解和参数共享。 |
504 |
在本文中,我们将在上下文线性强盗的背景下对此进行研究:我们考虑了一组协作解决共同的上下文强盗的特工,同时确保他们的交流保持私密性。 |
|
505 |
Is Plug-in Solver Sample-Efficient for Feature-based Reinforcement Learning? |
我们通过插件求解器方法解决了这个问题,该方法建立了一个经验模型,并通过一个任意的插件求解器在该经验模型中进行了计划。 |
506 |
为了克服这些限制,我们引入了“物理场景图”(PSG)的概念,该概念将场景表示为层次图,层次结构中的节点直观地对应于不同比例的对象零件,而边缘对应于零件之间的物理连接。 |
|
507 |
Deep Graph Pose: a semi-supervised deep graphical model for improved animal pose tracking |
我们提出了一个基于深度神经网络的概率图形模型Deep Graph Pose(DGP),以利用这些有用的时空约束,并开发一种有效的结构化变分方法来在该模型中进行推理。 |
508 |
Meta-learning from Tasks with Heterogeneous Attribute Spaces |
我们提出了一种异构元学习方法,该方法在具有各种属性空间的任务上训练模型,从而可以解决在给定标记实例的情况下属性空间与训练任务不同的看不见的任务。 |
509 |
Estimating decision tree learnability with polylogarithmic sample complexity |
我们证明自顶向下的决策树学习启发法(例如ID3,C4.5和CART)适合于高效的{¥sl可学习性估计}:对于单调目标函数,由这些启发法构造的决策树假设的误差可以使用{¥sl polylogarithmically}估计的许多示例,以指数形式小于运行这些启发式方法所需的数量,并且以实数形式小于学习良好决策树所需的信息理论最小值。 |
510 |
我们介绍了稀疏的符号集成神经网络(SSINNs),这是一种从数据中学习哈密顿动力学系统的新颖模型。 |
|
511 |
Continuous Object Representation Networks: Novel View Synthesis without Target View Supervision |
我们提出了连续对象表示网络(CORN),这是一种条件架构,可对输入图像的几何形状和外观进行编码,并映射到3D一致的场景表示中。 |
512 |
Multimodal Generative Learning Utilizing Jensen-Shannon-Divergence |
在这项工作中,我们提出了一种新颖的,高效的目标函数,该函数利用Jensen-Shannon发散来实现多种分布。 |
513 |
Solver-in-the-Loop: Learning from Differentiable Physics to Interact with Iterative PDE-Solvers |
我们针对减少迭代PDE求解器的数值误差的问题,并比较了不同的学习方法以查找复杂的校正函数。 |
514 |
在本文中,我们建立了第一个具有通用值函数近似的可证明有效的RL算法。 |
|
515 |
我们解决了预测预训练的深度网络收敛到损失函数给定值所需的优化步骤数的问题。 |
|
516 |
How does This Interaction Affect Me? Interpretable Attribution for Feature Interactions |
我们提出了一个名为Archipelago的交互归因和检测框架,该框架可以解决这些问题,并且可以在实际环境中进行扩展。 |
517 |
Optimal Adaptive Electrode Selection to Maximize Simultaneously Recorded Neuron Yield |
在这里,我们提出了一种称为基于分类的选择(CBS)的算法,该算法针对所有记录通道优化了联合电极选择,从而最大程度地提高了检测到的神经元的隔离质量。 |
518 |
Neurosymbolic Reinforcement Learning with Formally Verified Exploration |
我们提出了REVEL,这是一种部分神经增强学习(RL)框架,用于在连续状态和动作空间中进行可证明的安全探索。 |
519 |
Wavelet Flow: Fast Training of High Resolution Normalizing Flows |
本文介绍了小波流,它是一种基于小波的多尺度归一化流架构。 |
520 |
Multi-task Batch Reinforcement Learning with Metric Learning |
为了增强任务推理能力,我们提出了三重态损失的新颖应用。 |
521 |
在这项工作中,我们通过人工神经网络将关于鼠标V1(Stringer等人)中神经表示的协方差光谱的实验结果并置来研究后者。 |
|
522 |
在本文中,我们介绍了分类器边界厚度的概念,并描述了分类器与模型鲁棒性的联系及其有用性。 |
|
523 |
Demixed shared component analysis of neural population data from multiple brain areas |
在此,受针对单个大脑区域开发的方法的启发,我们引入了一种用于跨多个大脑区域对变量进行混合的新技术,称为混合共享成分分析(dSCA)。 |
524 |
受选择性推理框架的启发,我们提出了一种方法,该方法可以学习超参数并在不拆分数据的情况下对整个样本进行测试。 |
|
525 |
在这项工作中,我们提出了一种如何有效地对未标记示例进行噪声处理的新观点,并指出噪声的质量,特别是通过高级数据增强方法产生的噪声,在半监督学习中起着至关重要的作用。 |
|
526 |
为了解决这个问题,我们提出了一种基于群论的简单的闭合形式的rank-1格构造方法。 |
|
527 |
Minibatch vs Local SGD for Heterogeneous Distributed Learning |
我们在异构分布式环境中分析本地SGD(又名并行SGD或联合SGD)和Minibatch SGD,其中每台机器都可以访问针对不同机器特定凸目标的随机梯度估计;目标是优化平均目标;而且机器只能间歇性地通信。 |
528 |
我们提出了第一个多任务因果高斯过程(GP)模型,我们将其称为DAG-GP,该模型允许跨连续干预和跨不同变量的实验共享信息。 |
|
529 |
Proximity Operator of the Matrix Perspective Function and its Applications |
通过这种联系,我们提出了一种针对根查找问题的二次收敛牛顿算法。实验证明,对接近算子的评估最多需要8牛顿步,而在标准笔记本电脑上2000乘2000矩阵花费的时间少于5s。 |
530 |
在本文中,我们从视觉方面着眼于姿势估计子问题,涉及输入零件几何形状的几何和关系推理。 |
|
531 |
Improving Natural Language Processing Tasks with Human Gaze-Guided Neural Attention |
因此,我们的工作引入了一种在数据驱动模型和认知模型之间架桥的实用方法,并展示了一种将人类注视引导的神经注意力整合到NLP任务中的新方法。 |
532 |
The Power of Comparisons for Actively Learning Linear Classifiers |
尽管先前的结果表明,主动学习的表现并不比其对重要概念类别(如线性分隔符)的监督替代方案更好,但我们表明,通过添加弱分布假设并允许进行比较查询,主动学习所需的样本量将成倍减少。 |
533 |
在这项工作中,我们给出了学习受限玻尔兹曼机器(可能是研究最深入的潜变量模型类别)的新结果。 |
|
534 |
Crush Optimism with Pessimism: Structured Bandits Beyond Asymptotic Optimality |
在本文中,我们关注于有限假设的情况,并问一问是否可以实现渐进最优同时尽可能地享受有限的遗憾。 |
535 |
Pruning neural networks without any data by iteratively conserving synaptic flow |
这就提出了一个基本的问题:我们是否可以在初始化时识别出稀疏的可训练子网,而无需进行训练,或者甚至不需要查看数据?我们通过理论驱动的算法设计为这个问题提供了肯定的答案。 |
536 |
Detecting Interactions from Neural Networks via Topological Analysis |
基于观察的动机,在本文中,我们建议通过分析神经网络的连通性,从新颖的拓扑角度研究交互检测问题。 |
537 |
Neural Bridge Sampling for Evaluating Safety-Critical Autonomous Systems |
在这项工作中,我们采用概率方法对模拟中的安全性进行评估,其中我们关注计算危险事件的可能性。 |
538 |
我们提出了一种个性化且可解释的学徒计划算法,该算法通过根据演示者类型数量的推断性,个性化嵌入非参数来提取决策标准,从而推断出所有人工任务演示者的可解释性表示形式。 |
|
539 |
Task-Agnostic Online Reinforcement Learning with an Infinite Mixture of Gaussian Processes |
本文提出了一种基于在线连续模型的强化学习方法,该方法不需要进行预训练即可解决任务边界未知的任务不可知问题。 |
540 |
Benchmarking Deep Learning Interpretability in Time Series Predictions |
在本文中,我们着手在合成时间序列数据的新基准中,广泛地比较各种基于显着性的可解释性方法在各种神经体系结构(包括递归神经网络,时间卷积网络和变压器)中的性能。 |
541 |
在内存受限的情况下,我们针对$¥PCA $提出了联邦,异步和$(¥varepsilon,¥delta)$差分私有算法。 |
|
542 |
(De)Randomized Smoothing for Certifiable Defense against Patch Attacks |
在本文中,我们介绍了一种针对补丁攻击的可验证防御措施,可确保针对给定的映像和补丁攻击大小,不存在补丁对抗示例。 |
543 |
我们提出了一种新型的平衡聚类算法来近似注意力。 |
|
544 |
与其在相邻的胶囊层之间执行低效的局部迭代路由,不如在表示零件-对象分配中的固有不确定性的基础上,提出一种替代的全局视图。 |
|
545 |
A Simple and Efficient Smoothing Method for Faster Optimization and Local Exploration |
这项工作提出了一种新的平滑方法,称为弯曲,混合和释放(BMR),它扩展了凸优化文献的两个众所周知的平滑近似:随机平滑和Moreau包络。 |
546 |
Hyperparameter Ensembles for Robustness and Uncertainty Quantification |
在本文中,我们不仅在权重上设计合奏,还在超参数上设计合奏,以提高两种设置的技术水平。 |
547 |
为了仍然生产其组成类似于总体组成的面板,我们开发了一种采样算法,该算法可以在满足有意义的人口配额的同时,恢复所有特工的近似表示概率。 |
|
548 |
On the Convergence of Smooth Regularized Approximate Value Iteration Schemes |
在这项工作中,我们使用近似动态编程框架从错误传播的角度分析了这些技术。 |
549 |
在本文中,我们将这些估计量统一为同一线性程序的正则化拉格朗日数。 |
|
550 |
The LoCA Regret: A Consistent Metric to Evaluate Model-Based Behavior in Reinforcement Learning |
为了解决这个问题,我们引入了一个实验装置来评估RL方法基于模型的行为,这是受到神经科学在检测人和动物中基于模型的行为的启发下进行的。 |
551 |
我们介绍了神经幂运算单元(NPU),它在实数的完整域上运行,并且能够在单层中学习任意幂函数。 |
|
552 |
我们提出了显着减少空间和时间要求的算法技术,这使得使用较大的K值是可行的。 |
|
553 |
A Dictionary Approach to Domain-Invariant Learning in Deep Networks |
在本文中,我们通过在卷积神经网络(CNN)中仅使用少量领域特定参数对领域转移进行显式建模来考虑领域不变深度学习。 |
554 |
为此,我们提出了自举神经过程(BNP),这是使用引导程序的NP系列的一种新型扩展。 |
|
555 |
Large-Scale Adversarial Training for Vision-and-Language Representation Learning |
我们介绍VILLA,这是针对视觉和语言(V + L)表示学习的大规模对抗训练的第一个已知工作。 |
556 |
Most ReLU Networks Suffer from $\ell^2$ Adversarial Perturbations |
我们考虑具有随机权重的ReLU网络,其中维度在每一层减小。 |
557 |
在本文中,我们表明基于能量的模型可以通过直接组合概率分布来展现这种能力。 |
|
558 |
我们建议对因子图使用超边置换图语法,或者简称为参与者图语法(FGG)。 |
|
559 |
Erdos Goes Neural: an Unsupervised Learning Framework for Combinatorial Optimization on Graphs |
这项工作为图形上的CO问题提出了一个无监督的学习框架,该框架可以提供认证质量的完整解决方案。 |
560 |
为了提高灵活性,我们提出了自回归条件评分模型(AR-CSM),其中我们根据单变量对数条件(分数)的导数来对联合分布进行参数化,而无需对其进行归一化。 |
|
561 |
Debiasing Distributed Second Order Optimization with Surrogate Sketching and Scaled Regularization |
在这里,我们介绍了一种用于消除局部估计偏差的新技术,这导致了分布式二阶方法的收敛速度的理论和经验上的改进。 |
562 |
Neural Controlled Differential Equations for Irregular Time Series |
在这里,我们展示了如何通过¥emph {受控微分方程}的数学知识来解决这个问题。 |
563 |
在本文中,我们讨论了在马尔可夫决策过程中产生有效HRL方法的结构类型。 |
|
564 |
On Correctness of Automatic Differentiation for Non-Differentiable Functions |
这种现状提出了一个自然的问题:将autodiff系统应用于此类不可微分函数时,在形式上是否正确?在本文中,我们为这个问题提供了肯定的答案。 |
565 |
结合先前的工作,我们提出了一类概率线性求解器,它们共同推断矩阵,矩阵的逆和矩阵向量乘积观测值的解。 |
|
566 |
Dynamic Regret of Policy Optimization in Non-Stationary Environments |
我们提出了两种无模型的策略优化算法POWER和POWER ++,并为其动态后悔建立了保证。 |
567 |
Multipole Graph Neural Operator for Parametric Partial Differential Equations |
受经典多极方法的启发,我们的目标是建立一种新颖的多级图神经网络框架,该框架仅线性复杂度即可捕获所有范围的相互作用。 |
568 |
BlockGAN: Learning 3D Object-aware Scene Representations from Unlabelled Images |
我们介绍了BlockGAN,这是一种图像生成模型,可以直接从未标记的2D图像中学习对象感知的3D场景表示。 |
569 |
通过提出在线结构化元学习(OSML)框架,我们克服了这一限制。 |
|
570 |
我们提出了MINE(网络出现机制的多主体逆模型),这是一种使用多主体逆增强学习解决Markov-Perfect网络出现游戏的新学习框架。 |
|
571 |
Towards Interpretable Natural Language Understanding with Explanations as Latent Variables |
在本文中,我们为可解释的自然语言理解开发了一个通用框架,该框架只需要一小部分人工注释的解释即可进行培训。 |
572 |
在本文中,我们建立了双重Q学习和Q学习的渐进均方误差的理论比较。 |
|
573 |
在本文中,我们使用理论和经验分析来更好地理解视图选择的重要性,并认为应该在保持与任务相关的信息完整的同时减少视图之间的互信息。 |
|
574 |
我们使用扩散概率模型提供了高质量的图像合成结果,扩散概率模型是一类由非平衡热力学引起的潜变量模型。 |
|
575 |
Barking up the right tree: an approach to search over molecule synthesis DAGs |
因此,我们提出了一个通过直接输出分子合成DAG更好地代表现实世界过程的深度生成模型。 |
576 |
我们考虑一个不确定的噪声线性回归模型,其中最小范数插值预测变量已知是一致的,并问:该算法中的范数球是否可以均匀收敛,或者至少(遵循Nagarajan和Kolter)该范数球的子集选择一个典型的输入集,说明成功吗? |
|
577 |
在本文中,我们将抽样方差的优化公式描述为一个敌对的强盗问题,其中奖励与节点嵌入和学习权重有关,并且可以不断变化。 |
|
578 |
在本文中,我们开发了alpha-DPP算法,该算法可自适应地构建足够大的统一数据样本,然后将其用于高效地生成k个项目的较小集合,同时确保从定义于以下项的目标分布中准确提取出该集合:全部n个项目。 |
|
579 |
Uncovering the Topology of Time-Varying fMRI Data using Cubical Persistence |
为了解决这一挑战,我们提出了一种新颖的拓扑方法,该方法将fMRI数据集中的每个时间点编码为拓扑特征的持久性图,即数据中存在的高维空隙。 |
580 |
Hierarchical Poset Decoding for Compositional Generalization in Language |
在本文中,我们提出了一种新颖的分层姿势解码范例,用于语言中的组合概括。 |
581 |
Evaluating and Rewarding Teamwork Using Cooperative Game Abstractions |
我们介绍了一种称为合作游戏抽象(CGA)的参数模型,用于从数据中估计特征函数。 |
582 |
在这项工作中,我们提出了一个更通用的公式来通过常微分方程(ODE)实现置换等方差。 |
|
583 |
Profile Entropy: A Fundamental Measure for the Learnability and Compressibility of Distributions |
我们表明,对于离散分布的样本,轮廓熵是统一估计,推断和压缩概念的基本度量。 |
584 |
CoADNet: Collaborative Aggregation-and-Distribution Networks for Co-Salient Object Detection |
在本文中,我们提出了一个端到端的协作聚合和分发网络(CoADNet),以捕获来自多个图像的显着和重复的视觉模式。 |
585 |
Regularized linear autoencoders recover the principal components, eventually |
我们表明,学习最佳表示形式的效率低下不是不可避免的-我们提出了对梯度下降更新的简单修改,从而通过经验极大地加快了收敛速度。 |
586 |
Semi-Supervised Partial Label Learning via Confidence-Rated Margin Maximization |
为了解决这个困难,本文研究了半监督部分标签学习的问题,其中利用未标签数据和部分标签训练示例来促进模型归纳。 |
587 |
我们提出了一种新颖的纹理合成框架,可以在给定2D示例图像的情况下生成无限,高质量的3D纹理。 |
|
588 |
UWSOD: Toward Fully-Supervised-Level Capacity Weakly Supervised Object Detection |
在本文中,我们提出了一个统一的WSOD框架(称为UWSOD),以开发仅包含图像级标签的大容量通用检测模型,该模型是独立的,不需要外部模块或其他监督。 |
589 |
Learning Restricted Boltzmann Machines with Sparse Latent Variables |
在本文中,我们给出了一种用于学习时间复杂度为¥¥tilde {O}(n ^ {2 ^ s + 1})$的常规RBM的算法,其中$ s $是连接到MRF邻域的潜在变量的最大数量观察变量 |
590 |
Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and Variance Reduction |
重点关注具有状态空间S和动作空间A的,折价了¥¥gamma $的MDP,我们证明了基于$¥ell_ {¥infty} $的经典异步Q学习的样本复杂度-即,需要得出Q函数的初始$¥epsilon $精确估计-最多约为$¥frac {1} {¥mu_ {¥min}(1-¥gamma)^ 5¥epsilon ^ 2} + ¥frac {t_ {¥mathsf {mix}}}} {¥mu_ {¥min}(1-¥gamma)} $直到某个对数因子,前提是采用适当的恒定学习率。 |
591 |
Curriculum learning for multilevel budgeted combinatorial problems |
通过在多主体强化学习环境中构建框架,我们设计了一种基于价值的方法来学习解决涉及零和游戏的两名参与者在图表上的多级预算组合问题。 |
592 |
FedSplit: an algorithmic framework for fast federated optimization |
为了解决这些问题,我们介绍了FedSplit,这是一类基于算子拆分过程的算法,用于解决具有加法结构的分布式凸极小化问题。 |
593 |
我们继续进行这方面的研究,但将其扩展到更一般的MNAR机制,即概率主成分分析(PPCA)的更一般模型¥textit {ie},这是具有随机效应的低秩模型。 |
|
594 |
我们针对影响最大化问题提出了一种分布鲁棒模型。 |
|
595 |
在这里,我建议大脑实现GP回归并为其提供神经网络(NNs)。 |
|
596 |
Nonconvex Sparse Graph Learning under Laplacian Constrained Graphical Model |
在本文中,我们考虑了从拉普拉斯约束高斯图形模型中学习稀疏图的问题。 |
597 |
我们研究了无限制大小的统计查询类别上的私有合成数据生成的样本复杂性,并表明,任何可以适当地学习PAC的类都可以接受私有合成数据生成器(也许是无效的)。 |
|
598 |
为此,我们开发了一个统计推断框架,以从网络数据中学习节点之间的因果关系,其中潜在的有向图表示格兰杰因果关系。 |
|
599 |
为了提高基于策略梯度的强化学习算法的样本效率,我们提出了隐式分布式行动者批评者(IDAC),它由基于两个深层生成器网络(DGN)和半隐式行动者(SIA)的分布式评论者组成,由灵活的策略分发提供支持。 |
|
600 |
在这项工作中,我们提出了一种自动重新加权辅助任务的方法,以减少对主任务的数据需求。 |
|
601 |
在本文中,我们介绍一种方法,该方法表明可以在这种环境下提供可利用性保证,而无需探索整个游戏。 |
|
602 |
在本文中,我们介绍了一种可以训练基于多层FSM的网络的方法,其中FSM连接到上一层和下一层的每个FSM。 |
|
603 |
Efficient active learning of sparse halfspaces with arbitrary bounded noise |
在这项工作中,我们通过设计用于主动学习$ s $稀疏半空间的多项式时间算法对其进行了实质性改进,其标签复杂度为$¥tilde {O}¥big(¥frac {s} {{1-2 ¥eta)^ 4} polylog(d,¥frac 1¥epsilon)¥big)$。 |
604 |
我们提出了交换自动编码器(Swapping Autoencoder),这是一种专为图像处理而非随机采样而设计的深层模型。 |
|
605 |
为了解决这个问题,我们提出了两种新颖的自我监督的预训练任务,它们使用覆盖树对点云的分层分区进行编码,其中,点云子集位于覆盖树的每个级别的半径不同的球中。 |
|
606 |
Faster Differentially Private Samplers via R?nyi Divergence Analysis of Discretized Langevin MCMC |
在这项工作中,我们在更适合差异隐私的距离度量下为这些算法建立了快速收敛。 |
607 |
为了解决这个问题,我们提出了一种将潜在模型和传统神经编码模型中关键要素集成在一起的方法。 |
|
608 |
RL Unplugged: A Collection of Benchmarks for Offline Reinforcement Learning |
在本文中,我们提出了一个称为RL Unplugged的基准,以评估和比较离线RL方法。 |
609 |
Dual T: Reducing Estimation Error for Transition Matrix in Label-noise Learning |
因此,本文旨在通过利用分而治之范式解决这一问题。 |
610 |
相反,我们研究了更原则的对数势垒项的使用,该对数势垒项广泛用于线性规划的内部点求解器。 |
|
611 |
A simple normative network approximates local non-Hebbian learning in the cortex |
从数学上讲,我们从一系列的降低秩回归(RRR)目标函数开始,其中包括降低秩(最小)均方误差(RRMSE)和规范相关分析(CCA),并推导新颖的离线和在线优化算法,我们称之为生物RRR。 |
612 |
在这里,我们介绍了一系列学习规则,这些规则不会遭受任何这些问题的困扰。 |
|
613 |
Understanding the Role of Training Regimes in Continual Learning |
在这项工作中,我们脱离了改变学习算法以提高稳定性的典型方法。 |
614 |
我们研究学习满足人口奇偶校验约束的实值函数的问题。 |
|
615 |
由于研究工作集中在日益复杂的L2O模型上,因此我们提出了一个正交的,尚未探索的主题:改进的L2O模型训练技术。 |
|
616 |
Exactly Computing the Local Lipschitz Constant of ReLU Networks |
我们提供了一个充分的条件,对于该条件,反向传播总是返回广义雅可比矩阵的一个元素,并在这一广泛的函数类别中重新构造问题。 |
617 |
Strictly Batch Imitation Learning by Energy-based Distribution Matching |
为了解决这一挑战,我们提出了一种基于能量的分布匹配(EDM)的新技术:通过使用状态生成的(生成)能量函数识别策略的(区分)模型的参数化,EDM产生了一个简单而有效的解决方案这等效地最小化了演示者的占用度量与其模仿者的模型之间的差异。 |
618 |
On the Ergodicity, Bias and Asymptotic Normality of Randomized Midpoint Sampling Method |
在本文中,我们考虑了过阻尼和欠阻尼朗格文动力学,分析了随机中点离散化方法的几个概率性质。 |
619 |
A Single-Loop Smoothed Gradient Descent-Ascent Algorithm for Nonconvex-Concave Min-Max Problems |
在本文中,我们介绍了一种“平滑”方案,该方案可以与GDA结合使用,以稳定振荡并确保收敛到平稳解。 |
620 |
Generating Correct Answers for Progressive Matrices Intelligence Tests |
在这项工作中,根据定义,我们将精力集中在生成给定网格的正确答案上,这是一项艰巨的任务。 |
621 |
HyNet: Learning Local Descriptor with Hybrid Similarity Measure and Triplet Loss |
在本文中,我们研究了L2归一化如何在训练过程中影响反向传播的描述符梯度。 |
622 |
Preference learning along multiple criteria: A game-theoretic perspective |
在这项工作中,我们从布莱克韦尔的平易近人中获得启发,将冯·诺伊曼奖得主的概念推广到多标准环境。 |
623 |
与先前基于图像的程序合成工作(假定图像包含单个可见2D平面)不同,我们提出了Box Program Induction(BPI),它可以推断出类似程序的场景表示形式,该场景表示可以同时对多个2D平面(3D)上的重复结构进行建模平面的位置和方向以及相机参数,均来自单个图像。 |
|
624 |
Online Neural Connectivity Estimation with Noisy Group Testing |
在这里,我们提出了一种基于噪声组测试的方法,该方法可以大大提高稀疏网络中该过程的效率。 |
625 |
Once-for-All Adversarial Training: In-Situ Tradeoff between Robustness and Accuracy for Free |
我们提出的框架,即全民对抗训练(OAT),建立在创新的模型条件训练框架之上,并以控制超参数作为输入。 |
626 |
Implicit Neural Representations with Periodic Activation Functions |
我们建议利用周期性激活函数进行隐式神经表示,并证明这些被称为正弦表示网络或SIREN的网络非常适合表示复杂的自然信号及其衍生物。 |
627 |
在本文中,我们首次探讨了角度偏差对量化误差的影响,然后引入了旋转二进制神经网络(RBNN),该模型考虑了全权重向量及其二值化版本之间的角度对齐。 |
|
628 |
Community detection in sparse time-evolving graphs with a dynamical Bethe-Hessian |
提出了一种基于Bethe-Hessian矩阵扩展的快速谱算法,该算法得益于类别标签及其时间演化的正相关性,可应用于具有社区结构的任何动态图。 |
629 |
Simple and Principled Uncertainty Estimation with Deterministic Deep Learning via Distance Awareness |
这促使我们研究仅需单个深度神经网络(DNN)的高质量不确定性估计的原则方法。 |
630 |
Adaptive Learning of Rank-One Models for Efficient Pairwise Sequence Alignment |
在这项工作中,我们提出了一种基于两种关键新成分的成对比对估计的新方法。 |
631 |
在这项工作中,我们研究了一些最新的DCN中ImageNet数据集在隐藏层上的概率密度的演变。 |
|
632 |
Fourier Features Let Networks Learn High Frequency Functions in Low Dimensional Domains |
我们建议一种选择特定于问题的傅立叶特征的方法,该方法可大大提高MLP在与计算机视觉和图形社区相关的低维回归任务上的性能。 |
633 |
为了利用欧氏几何和双曲线几何的强度,我们开发了一种新颖的几何交互学习(GIL)方法用于图形,这是一种用于学习图形中丰富几何特性的合适且有效的替代方法。 |
|
634 |
为了解决这个问题,我们提出了微分增强(DiffAugment),这是一种通过在真实和假样本上施加各种类型的微分增强来提高GAN数据效率的简单方法。 |
|
635 |
在本文中,我们从启发式搜索的角度解决了领域不变和领域特定信息的建模问题。 |
|
636 |
在这项工作中,我们介绍了第一种方法,该方法使数据使用者能够获取现有数据点和新数据点的个体公平性证书。 |
|
637 |
Part-dependent Label Noise: Towards Instance-dependent Label Noise |
在这种人类认知的推动下,本文通过利用¥textit {part-dependent}标签噪声来近似与实例相关的标签噪声。 |
638 |
Tackling the Objective Inconsistency Problem in Heterogeneous Federated Optimization |
利用来自此分析的见解,我们提出了FedNova,这是一种归一化的平均方法,它消除了目标不一致,同时保留了快速的误差收敛。 |
639 |
An Improved Analysis of (Variance-Reduced) Policy Gradient and Natural Policy Gradient Methods |
在本文中,我们回顾并改进了一般平滑政策参数设置下的政策梯度(PG),自然PG(NPG)方法及其减少方差的收敛性。 |
640 |
我们研究了一般凸成本下¥mph {unknown}线性动力系统的控制。 |
|
641 |
受此启发,我们建议针对代理商需要解决的目标设置自动课程。 |
|
642 |
在这项工作中,我们建议使用对抗损失,这种损失会惩罚条带结构,而无需任何人工注释。 |
|
643 |
在这里,我们介绍了NetHack学习环境(NLE),它是一种基于流行的基于单终端的基于Roguelike游戏NetHack的可扩展的,程序生成的,随机的,丰富且具有挑战性的环境,用于RL研究。 |
|
644 |
Language and Visual Entity Relationship Graph for Agent Navigation |
为了捕获和利用这些关系,我们提出了一种新颖的语言和视觉实体关系图,用于建模文本和视觉之间的模态关系以及视觉实体之间的模态关系。 |
645 |
ICAM: Interpretable Classification via Disentangled Representations and Feature Attribution Mapping |
在这里,我们提出了一个新颖的框架,可以通过图像到图像的翻译来创建类特定的FA映射。 |
646 |
Spectra of the Conjugate Kernel and Neural Tangent Kernel for linear-width neural networks |
我们研究了与多层前馈神经网络相关的共轭核和神经正切核的特征值分布。 |
647 |
No-Regret Learning Dynamics for Extensive-Form Correlated Equilibrium |
在本文中,我们给出了第一个解耦的无遗憾动态,该动态收敛到具有完美召回作用的n玩家一般和广泛形式游戏中的EFCE集。 |
648 |
结果证明了学习算法的合理性,该算法选择得分函数以最大化曲线下的经验局部面积(pAUC)。 |
|
649 |
Can Implicit Bias Explain Generalization? Stochastic Convex Optimization as a Case Study |
我们可以用最简单的非平凡设置重新审视此范例,并在随机凸优化的背景下研究随机梯度下降(SGD)的隐含偏差。 |
650 |
为了利用这种洞察力并有效地重用数据,我们提出了通用Hindsight:一种近似的反向强化学习技术,用于用正确的任务重新标记行为。 |
|
651 |
在本文中,我们提出了一种新颖的离线RL算法,可以使用批评者正则化回归(CRR)的形式从数据中学习策略。 |
|
652 |
在这项工作中,我们主张通过将特征正则化到紧凑的流形上,将超球面嵌入(HE)机制纳入AT程序中,该流形结构构成了一个轻巧而有效的模块,以融合表示学习的优势。 |
|
653 |
Beyond Homophily in Graph Neural Networks: Current Limitations and Effective Designs |
受此限制的驱使,我们确定了一组关键设计(自我嵌入和邻域嵌入分离,高阶邻域以及中间表示的组合),这些设计可以促进从异构结构下的图结构学习。 |
654 |
Modeling Continuous Stochastic Processes with Dynamic Normalizing Flows |
在这项工作中,我们提出了一种由连续时间维纳过程的微分变形驱动的新型归一化流。 |
655 |
Efficient Online Learning of Optimal Rankings: Dimensionality Reduction via Gradient Descent |
在这项工作中,我们展示了如何在多项式时间内实现GMSSC的低后悔。 |
656 |
Training Normalizing Flows with the Information Bottleneck for Competitive Generative Classification |
在这项工作中,首先,我们开发了IB-INN的理论和方法,IB-INN是一类条件归一化流程,其中使用IB目标训练了INN:引入少量可控制的信息损失可以渐近精确地表示IB,同时保持INN的生成能力不变。 |
657 |
Detecting Hands and Recognizing Physical Contact in the Wild |
我们提出了一种基于Mask-RCNN的新颖卷积网络,该网络可以共同学习对手进行定位并预测其物理接触以解决该问题。 |
658 |
On the Theory of Transfer Learning: The Importance of Task Diversity |
当通过学习跨不同任务共享的特征表示实现转移时,我们通过表示学习为转移学习提供了新的统计保证。 |
659 |
我们研究了经典的随机多臂匪问题的扩展,该问题涉及在强盗休息情况下的多重游戏和马尔可夫奖励。 |
|
660 |
为了解决这个问题,我们提出了一种新颖的原始表示形式,称为神经星域(NSD),它可以学习星域中的原始形状。 |
|
661 |
Off-Policy Interval Estimation with Lipschitz Value Iteration |
在这项工作中,我们提出了一种可证明正确的方法,用于在一般连续的环境中获得非政策评估的区间界限。 |
662 |
Inverse Rational Control with Partially Observable Continuous Nonlinear Dynamics |
在这里,我们容纳了连续的非线性动力学和连续的动作,并归因于动物专有的未知噪声所破坏的归类感官观察。 |
663 |
本文介绍了深度统计求解器(DSS),这是一类针对优化问题的新型可训练求解器,例如系统仿真产生的问题。 |
|
664 |
Distributionally Robust Parametric Maximum Likelihood Estimation |
为了缓解这些问题,我们提出了一种分布鲁棒的最大似然估计器,该估计器将参数标称分布周围的参数Kullback-Leibler球上的最坏情况下的预期对数损失均匀地最小化。 |
665 |
Secretary and Online Matching Problems with Machine Learned Advice |
特别是,我们研究以下在线选择问题:(i)经典秘书问题,(ii)在线二部匹配,以及(iii)图形拟阵秘书问题。 |
666 |
相反,我们提出了一种正交方法,该方法不依赖抽象特征,而是学习预测变换并直接在图像空间中执行聚类。 |
|
667 |
Overfitting Can Be Harmless for Basis Pursuit, But Only to a Degree |
相反,在本文中,我们研究了使L1范数最小化的过拟合解决方案,在压缩传感文献中将其称为基础追求(BP)。 |
668 |
Improving Generalization in Reinforcement Learning with Mixture Regularization |
在这项工作中,我们引入了一种简单的方法,称为mixreg,该方法在来自不同训练环境的混合观测值上训练代理,并对观测值插值和监督(例如相关奖励)插值施加线性约束。 |
669 |
Pontryagin Differentiable Programming: An End-to-End Learning and Control Framework |
PDP通过两种新颖的技术与现有方法区别开来:首先,我们通过Pontryagin的最大原理进行区分,这允许在最优控制系统内获得轨迹关于可调参数的解析导数,从而实现端到端学习动态,政策或/和控制目标功能;其次,我们在PDP框架的后向中提出了一个辅助控制系统,该辅助控制系统的输出是原始系统轨迹相对于参数的解析导数,可以使用标准控制工具来迭代求解。 。 |
670 |
在本文中,我们将MIL从二进制分类扩展到其他问题,例如多分类和回归。 |
|
671 |
The Devil is in the Detail: A Framework for Macroscopic Prediction via Microscopic Models |
在本文中,我们通过基于条件随机优化的微观模型拟合,为宏观预测提出了一种有原则的优化框架。 |
672 |
在这里,我们介绍SubGNN,这是一个子图神经网络,用于学习解缠结的子图表示形式。 |
|
673 |
在本文中,我们运用OMC的负相关随机变量理论来获得一些新的集中结果,从而为OMC背后的理论原理提供了新的思路。 |
|
674 |
Optimal Robustness-Consistency Trade-offs for Learning-Augmented Online Algorithms |
在本文中,我们提供了使用机器学习的预测进行竞争分析的第一组非平凡下界。 |
675 |
A Scalable Approach for Privacy-Preserving Collaborative Machine Learning |
我们提出COPML,这是一种完全分散的培训框架,可以同时实现可伸缩性和隐私保护。 |
676 |
Glow-TTS: A Generative Flow for Text-to-Speech via Monotonic Alignment Search |
在这项工作中,我们提出了Glow-TTS,这是一种基于流的并行TTS生成模型,不需要任何外部对准器。 |
677 |
为了找到描述长度较小的体系结构,我们提出了beta-LASSO,这是LASSO算法的一种简单变体,当将其应用于完全连接的网络以进行图像分类任务时,可以学习具有本地连接的体系结构并实现最新的精度在CIFAR-10(84.50%),CIFAR-100(57.76%)和SVHN(93.84%)上对全连接网络进行培训,以弥合全连接网络与卷积网络之间的差距。 |
|
678 |
Cycle-Contrast for Self-Supervised Video Representation Learning |
我们提出了循环对比学习(CCL),这是一种用于学习视频表示的新颖的自我监督方法。 |
679 |
为了应对由于不平衡而导致的测试标签分布的变化,我们从最佳贝叶斯分类器的角度提出了问题,并推导出了可以通过基于KL散度的优化解决的先前的重新平衡技术。 |
|
680 |
Novelty Search in Representational Space for Sample Efficient Exploration |
我们提出了一种有效的探索新方法,该方法利用对基于模型的目标与无模型目标的结合来学习的环境进行低维编码。 |
681 |
Robust Reinforcement Learning via Adversarial training with Langevin Dynamics |
利用强大的随机梯度Langevin动力学,我们提出了一种新颖的,可扩展的两人RL算法,它是两人策略梯度方法的一种采样变体。 |
682 |
我们考虑一般的对抗多臂封锁匪徒设置,在该设定中,每个被玩过的手臂可以被封锁一段时间(不可用),并且在每个时间段都以对抗性给予每只手臂奖励,而无需服从任何分配。 |
|
683 |
Online Algorithms for Multi-shop Ski Rental with Machine Learned Advice |
特别是,我们考虑了¥emph {多店滑雪租赁}(MSSR)问题,它是对经典滑雪租赁问题的概括。 |
684 |
为了克服这一局限性,我们引入了一种基于多标签分类问题的新颖估计器,其中批评者需要同时识别¥emph {multiple}阳性样本。 |
|
685 |
Rotation-Invariant Local-to-Global Representation Learning for 3D Point Cloud |
我们提出了一种用于3D点云数据的局部到全局表示学习算法,该算法适用于处理各种几何变换,尤其是旋转,而无需针对变换进行显式的数据增强。 |
686 |
我们提出了统一网络,这是一种端到端的可微神经网络方法,能够将示例分解为不变式,并使用这些不变式来解决给定的任务。 |
|
687 |
One Solution is Not All You Need: Few-Shot Extrapolation via Structured MaxEnt RL |
这项工作的关键见解是,学习完成任务的各种行为可以直接导致行为泛化到不同的环境,而无需在训练过程中进行明确的干预。 |
688 |
在这项工作中,我们扩展了VBMC来处理嘈杂的对数似然评估,例如那些基于仿真的模型所产生的评估。 |
|
689 |
Finite-Sample Analysis of Contractive Stochastic Approximation Using Smooth Convex Envelopes |
在本文中,我们考虑一个涉及针对任意范数的收缩映射的SA,并在使用不同步长的情况下显示其有限样本误差范围。 |
690 |
在本文中,我们表明,使用现有方法无法将标准模型压缩技术,权重修剪和知识蒸馏技术应用于GAN。 |
|
691 |
An efficient nonconvex reformulation of stagewise convex optimization problems |
我们开发了一种非凸的重新设计格式,旨在利用此阶段结构。 |
692 |
我们提出了一种完全自适应的在线学习算法,该算法可在任意次数的n次游戏后实现O(log n)依赖于分布的预期累积后悔,并证明这种后悔的顺序是最好的。 |
|
693 |
Adversarial Distributional Training for Robust Deep Learning |
在本文中,我们介绍了对抗式分布训练(ADT),这是一种学习健壮模型的新颖框架。 |
694 |
Meta-Learning Stationary Stochastic Process Prediction with Convolutional Neural Processes |
在此基础上,我们提出了卷积神经过程(ConvNP),它使神经过程(NP)具有平移等方差,并扩展了卷积条件NP以允许预测分布中具有依赖性。 |
695 |
Theory-Inspired Path-Regularized Differential Network Architecture Search |
在这项工作中,我们通过理论上分析各种类型的操作(例如卷积,跳过连接和归零操作)对网络优化的影响来解决此问题。 |
696 |
我们提出了条件梯度方法对可行集为凸锥的问题的扩展。 |
|
697 |
我们针对基于波的成像问题提出了一种基于物理学的通用深度学习架构。 |
|
698 |
我们提出了一个框架,用于使用¥emph {structure-exploiting}低维输运图或流来解决高维贝叶斯推理问题。 |
|
699 |
Nimble: Lightweight and Parallel GPU Task Scheduling for Deep Learning |
为此,我们提出了Nimble,这是一种DL执行引擎,它以最小的调度开销并行运行GPU任务。 |
700 |
Finding the Homology of Decision Boundaries with Active Learning |
在本文中,我们提出了一种主动学习算法来恢复决策边界的同源性。 |
701 |
Reinforced Molecular Optimization with Neighborhood-Controlled Grammars |
在这里,我们提出MNCE-RL,这是一种卷积策略网络,用于通过强化学习对具有分子邻域控制的嵌入语法的分子进行优化。 |
702 |
Natural Policy Gradient Primal-Dual Method for Constrained Markov Decision Processes |
具体而言,我们为CMDP提出了一种新的自然政策梯度原始对偶(NPG-PD)方法,该方法通过自然策略梯度上升来更新原始变量,并通过预测的次梯度下降来更新对偶变量。 |
703 |
Classification Under Misspecification: Halfspaces, Generalized Linear Models, and Evolvability |
在本文中,我们将重新讨论在Massart噪声下速率为¥¥eta $的分布独立学习半空间的问题。 |
704 |
Certified Defense to Image Transformations via Randomized Smoothing |
为了解决这一挑战,我们引入了三种不同的防御措施,每种防御措施都具有不同的保证(启发式,分布性和个体性),这些保证源自用于限制插值误差的方法。 |
705 |
在本文中,我们研究了从锦标赛中成对游戏的观察中学习代理群体的技能分布的问题。 |
|
706 |
我们提供了一个通用框架,用于将镜像下降更新投射为不同参数集上的梯度下降更新。 |
|
707 |
General Control Functions for Causal Effect Estimation from IVs |
为了构造通用控制功能并估计效果,我们开发了通用控制功能方法(GCFN)。 |
708 |
Optimal Algorithms for Stochastic Multi-Armed Bandits with Heavy Tailed Rewards |
在本文中,我们考虑具有重尾奖励的随机多臂土匪(MAB),其第p阶矩在1 <p <= 2时受常数nu_p限制。 |
709 |
在¥emph {图分类}的应用中,我们提出了第一个证明GCN对拓扑攻击的鲁棒性的算法。 |
|
710 |
为此,我们建议表示一种将上下文和响应联系起来的知识,以及将该知识表示为潜在变量的方式,并设计一种变分方法,该方法可以有效地根据独立对话语料库和知识语料库估算生成模型。 |
|
711 |
Targeted Adversarial Perturbations for Monocular Depth Prediction |
我们研究了对抗性摄动对单眼深度预测任务的影响。 |
712 |
Beyond the Mean-Field: Structured Deep Gaussian Processes Improve the Predictive Uncertainties |
我们提出了一种新颖的高斯变分族,该族可以保留潜在过程之间的协方差,同时通过边缘化所有全局潜在变量来实现快速收敛。 |
713 |
在这项工作中,我们将在一些专家演示和一个动态不正确的模拟器的情况下研究政策学习。 |
|
714 |
Multi-Fidelity Bayesian Optimization via Deep Neural Networks |
为了解决这个问题,我们提出了深度神经网络多保真贝叶斯优化(DNN-MFBO),它可以灵活地捕获保真度之间的各种复杂关系,从而改善目标函数估计,从而提高优化性能。 |
715 |
PlanGAN: Model-based Planning With Sparse Rewards and Multiple Goals |
在这项工作中,我们提出了PlanGAN,这是一种基于模型的算法,专门设计用于在奖励稀少的环境中解决多目标任务。 |
716 |
我们发现,如果不对¥emph {explicitly}进行正则化,则可以很容易地使SGD收敛到泛化性差,复杂性高的模型:要做的只是先对数据进行随机标注,然后再切换到用正确的标签正确训练。 |
|
717 |
Optimal Prediction of the Number of Unseen Species with Multiplicity |
我们通过将估计极限确定为$ a¥approx(¥log n)/¥mu $,上下限都匹配常数因子,从而完全解决了这个问题。 |
718 |
Characterizing Optimal Mixed Policies: Where to Intervene and What to Observe |
在本文中,我们研究了混合策略类别的几种属性,并提供了有效和有效的特征,包括最优性和非冗余性。 |
719 |
我们将GNN概括为一个因子图神经网络(FGNN),提供了一种简单的方法来将多个变量之间的依赖关系合并。 |
|
720 |
考虑到此属性,我们然后证明通过本地Lipschitz函数对于基准数据集都应同时具有鲁棒性和准确性,因此,在鲁棒性和准确性之间不应存在内在的取舍。 |
|
721 |
通过类推,在本文中,我们研究了深度神经网络(DNN)在学习过程中在单个样本上的动态性能。 |
|
722 |
在本文中,我们提出了一种新型的球形CNN,它可以高效地进行各向异性过滤,而无需离开球形域。 |
|
723 |
Learning to Execute Programs with Instruction Pointer Attention Graph Neural Networks |
我们的目标是实现两全其美,我们通过引入一种新颖的GNN体系结构,即指令指针注意图神经网络(IPA-GNN),实现了对学习使用控制执行程序这一任务的改进的系统概括。流程图。 |
724 |
AutoPrivacy: Automated Layer-wise Parameter Selection for Secure Neural Network Inference |
在本文中,为了快速,准确地进行安全的神经网络推断,我们提出了一种自动的分层参数选择器AutoPrivacy,该选择器利用深度强化学习为HPPNN中的每个线性层自动确定一组HE参数。 |
725 |
本文提出了一种用于百特排列(BP)的贝叶斯非参数(BNP)模型,称为BP过程(BPP),并将其应用于关系数据分析。 |
|
726 |
Characterizing emergent representations in a space of candidate learning rules for deep networks |
在这里,我们介绍了候选学习规则的连续二维空间,该参数由自顶向下的反馈和Hebbian学习的级别参数化。 |
727 |
Fast, Accurate, and Simple Models for Tabular Data via Augmented Distillation |
为了改善AutoML在表格数据上的部署,我们建议使用FAST-DAD将任意复杂的集合预测变量提炼成单个模型,如增强树,随机森林和深层网络。 |
728 |
受流量路由应用程序的启发,我们考虑在边缘长度未知的情况下在图中找到从源$ s $到目标$ t $的最短路径的问题。 |
|
729 |
Approximate Heavily-Constrained Learning with Lagrange Multiplier Models |
我们的建议是将特征向量与每个约束相关联,并学习将每个这样的向量映射到对应的拉格朗日乘数的“乘数模型”。 |
730 |
Faster Randomized Infeasible Interior Point Methods for Tall/Wide Linear Programs |
在本文中,对于特殊情况,我们考虑使用¥emph {infeasible} IPM,在这种情况下,采用对偶变量的数量远远大于约束的数量(即,宽),反之亦然(即,高)。 |
731 |
在这项工作中,我们专注于$ k $聚类问题,例如$ k $ -means和$ k $ -median。 |
|
732 |
AdaShare: Learning What To Share For Efficient Deep Multi-Task Learning |
与现有方法不同,我们提出了一种称为AdaShare的自适应共享方法,该方法可在考虑资源效率的同时,决定在哪些任务之间共享什么以实现最佳识别精度。 |
733 |
在当前的工作中,我们通过将ACV扩展为CV方案并在折叠之间具有依赖性结构来解决(i)。 |
|
734 |
Exemplar VAE: Linking Generative Models, Nearest Neighbor Retrieval, and Data Augmentation |
我们介绍了样例VAE,这是一种生成模型模型,可弥补基于参数和非参数的,基于样例的生成模型之间的差距。 |
735 |
受此观察结果的启发,我们开发了一种无偏的对比物镜,即使不知道真实的标签,也可以校正相同标签的数据点的采样。 |
|
736 |
UCSG-NET- Unsupervised Discovering of Constructive Solid Geometry Tree |
相反,我们提出了一种无需任何监督即可提取CSG解析树的模型-UCSG-Net。 |
737 |
在本文中,我们特别关注一种聚合形式–¥emph {功能组合}。 |
|
738 |
COT-GAN: Generating Sequential Data via Causal Optimal Transport |
我们介绍了一种对抗性算法COT-GAN,它可以训练为生成顺序数据而优化的隐式生成模型。 |
739 |
在本文中,我们考虑了无损压缩方案,并询问我们是否可以像原始数据那样小而高效地对压缩数据进行计算。 |
|
740 |
在这里,我们扭转这些发现,并表明实际上所有抑制主导的SNN都可以通过凸优化的角度来理解,网络连接,时间尺度和触发阈值与潜在的凸优化问题的参数错综复杂地联系在一起。 |
|
741 |
Better Full-Matrix Regret via Parameter-Free Online Learning |
我们提供在线凸优化算法,以确保改进的全矩阵后悔界限。 |
742 |
Large-Scale Methods for Distributionally Robust Optimization |
我们提出并分析了具有条件风险值(CVaR)和$¥chi ^ 2 $散度不确定性集的凸损失的分布鲁棒优化算法。 |
743 |
Analysis and Design of Thompson Sampling for Stochastic Partial Monitoring |
为了缓解这些问题,我们提出了一种新颖的基于汤普森采样的算法,该算法使我们能够从后验分布中准确采样目标参数。 |
744 |
我们提出了一种新的高效算法,对于强烈凸和平滑的成本,它获得了随着时间范围T的平方根增长的后悔。 |
|
745 |
Refactoring Policy for Compositional Generalizability using Self-Supervised Object Proposals |
我们提出了一个分为两个阶段的框架,该框架将高薪教师政策重构为具有强烈归纳偏差的可推广学生政策。 |
746 |
我们引入了一种新方法,即“通过扰动进行参数合并(PEP)”,该方法将参数值的集合构造为最佳参数集的随机扰动,该扰动来自于高斯对单个方差参数的训练。 |
|
747 |
Theoretical Insights Into Multiclass Classification: A High-dimensional Asymptotic View |
在本文中,我们通过提供线性多类分类的第一个渐近精确分析,朝这个方向迈出了一步。 |
748 |
在这项工作中,我们为将可转移的对抗性示例适用于整个假设类别提供了理论基础。 |
|
749 |
Residual Distillation: Towards Portable Deep Neural Networks without Shortcuts |
特别是,我们提出了一种新颖的联合训练框架,以利用ResNet对应项的梯度来训练普通CNN。 |
750 |
Provably Efficient Neural Estimation of Structural Equation Models: An Adversarial Approach |
我们将线性算子方程式表示为最小-最大博弈,其中两个参与者都通过神经网络(NNs)参数化,并使用随机梯度下降学习这些神经网络的参数。 |
751 |
Security Analysis of Safe and Seldonian Reinforcement Learning Algorithms |
通过创建代表最坏情况分析的攻击者模型,我们引入了一种新的安全性度量方法来量化训练数据中的扰动敏感性,并显示出两种Seldonian RL方法对极少数数据损坏都极为敏感。 |
752 |
当与对手的对抗序列对战时,我们为学习者提出了一种新颖的算法。 |
|
753 |
Further Analysis of Outlier Detection with Deep Generative Models |
在这项工作中,我们从观察模型的典型集合和高密度区域可能不一致的角度出发,为这种现象提供了可能的解释。 |
754 |
Bridging Imagination and Reality for Model-Based Deep Reinforcement Learning |
在本文中,我们提出了一种新颖的基于模型的强化学习算法,称为BrIdging现实与梦想(BIRD)。 |
755 |
Neural Networks Learning and Memorization with (almost) no Over-Parameterization |
在本文中,我们证明了深度2神经网络的SGD可以存储样本,学习具有加权的多项式,并学习特定的核空间,其中{¥em近乎最佳}网络规模,样本复杂度和运行时间。 |
756 |
Exploiting Higher Order Smoothness in Derivative-free Optimization and Continuous Bandits |
我们解决了强凸函数的零阶优化问题。 |
757 |
Towards a Combinatorial Characterization of Bounded-Memory Learning |
在本文中,我们的目标是开发表征受限记忆学习的组合维度。 |
758 |
Chaos, Extremism and Optimism: Volume Analysis of Learning in Games |
我们在零和以及协调游戏中执行乘法权重更新(MWU)及其乐观变量(OMWU)的体积分析。 |
759 |
我们的目标是设计算法,以自动适应问题的未知硬度,即最佳臂数。 |
|
760 |
我们考虑利用社交或项目相似图作为辅助信息的矩阵完成问题。 |
|
761 |
我们的分析引入了两个想法:(i)为近似最优策略构建一个$¥varepsilon $ -net,其对数覆盖数仅与计划范围成对数比例;(ii)在线轨迹综合算法,该算法可以自适应地评估给定策略类别中的所有策略,并且样本复杂度随给定策略类别的基数对数扩展。 |
|
762 |
为了有效地实施此方案,我们推导了一种新颖的伴随方法,该方法传播构造近似边际似然梯度所需的最小信息。 |
|
763 |
在本文中,我们提出了一种基于对抗学习的鲁棒深度聚类方法。 |
|
764 |
我们提出了一种基于语言模型的无监督解决方案,该模型可同时学习连续的潜在表示形式。 |
|
765 |
在本文中,我们将变体语义记忆引入元学习中,以获取针对短镜头学习的长期知识。 |
|
766 |
受在线广告中定价应用的推动,我们研究了线性回归的一种变体,该变体具有不连续的损失函数,我们称其为Myersonian回归。 |
|
767 |
在本文中,当监督由包含带有金标的非零互信息的变量提供监督时,我们将为多类分类开发一个统一的理论框架。 |
|
768 |
我们迈出了第一步,以高信心确保平稳变化的非平稳决策问题的安全性。 |
|
769 |
Finer Metagenomic Reconstruction via Biodiversity Optimization |
在这里,我们利用了最近开发的生物多样性概念,该概念同时说明了生物相似性,并保留了基于压缩感知方法的优化策略。 |
770 |
特别是,我们的目标是发现环境和对象变量之间的结构相关性:推断对动力系统的行为有因果关系的相互作用的类型和强度。 |
|
771 |
Glyph: Fast and Accurately Training Deep Neural Networks on Encrypted Data |
在本文中,我们提出了基于FHE的Glyph技术,该技术可通过在TFHE(圆环上的快速全同态加密)和BGV密码系统之间切换来快速而准确地训练DNN。 |
772 |
Smoothed Analysis of Online and Differentially Private Learning |
在本文中,我们采用了平滑分析的框架[Spielman and Teng,2004],在该框架中,对抗性选择的输入受到自然的干扰。 |
773 |
在本文中,我们通过将课程生成解释为一个推理问题来提出答案,其中逐步学习任务的分布以接近目标任务。 |
|
774 |
Kalman Filtering Attention for User Behavior Modeling in CTR Prediction |
为了解决这两个限制,我们提出了一种新颖的注意力机制,称为卡尔曼滤波注意力(KFAtt),该机制将注意力中的加权合并视为最大后验(MAP)估计。 |
775 |
Towards Maximizing the Representation Gap between In-Domain & Out-of-Distribution Examples |
我们针对DPN提出了一种新颖的损失函数,以最大程度地提高域内和OOD示例之间的表示差距,从而解决了这一缺陷。 |
776 |
Fully Convolutional Mesh Autoencoder using Efficient Spatially Varying Kernels |
在本文中,我们针对任意注册的网格数据提出了一种非模板专用的全卷积网格自动编码器。 |
777 |
GNNGuard: Defending Graph Neural Networks against Adversarial Attacks |
在这里,我们开发了GNNGuard,这是一种针对各种训练时间攻击的通用防御方法,这些攻击会干扰离散图结构。 |
778 |
Geo-PIFu: Geometry and Pixel Aligned Implicit Functions for Single-view Human Reconstruction |
我们提出了Geo-PIFu,一种从穿着衣服的人的单眼彩色图像中恢复3D网格的方法。 |
779 |
Optimal visual search based on a model of target detectability in natural images |
我们提出了一种新颖的方法,用于根据人类视觉系统的生物学方面,近似估计自然背景下已知目标的偏爱可探测性。 |
780 |
Towards Convergence Rate Analysis of Random Forests for Classification |
我们在纯随机森林的收敛性上提出了第一个有限采样率O(n ^ {-1 /(8d + 2)}),可以将其提高到O(n ^ {-1 /(3.87) d + 2)}),考虑中点拆分机制。 |
781 |
List-Decodable Mean Estimation via Iterative Multi-Filtering |
我们研究了有界协方差分布的{¥em list-decodable均值估计}问题。 |
782 |
Exact Recovery of Mangled Clusters with Same-Cluster Queries |
我们研究了半监督主动集群框架中的集群恢复问题。 |
783 |
在本文中,我们证明了情景学习任务的学习环境中普遍存在唯一的稳态分布,并且在几乎所有情景任务中,系统状态的边际分布实际上都接近稳态。 |
|
784 |
Direct Feedback Alignment Scales to Modern Deep Learning Tasks and Architectures |
在这里,我们挑战这种观点,并研究直接反馈对齐(DFA)在神经视图合成,推荐系统,几何学习和自然语言处理中的适用性。 |
785 |
在本文中,我们提出了一种贝叶斯优化(BO)方法,该方法利用学习算法的迭代结构来进行有效的超参数调整。 |
|
786 |
我们为广义线性模型建立了一类新的极大极小预测误差范围。 |
|
787 |
Projection Robust Wasserstein Distance and Riemannian Optimization |
我们在本文中所做的贡献是重新审视了WPP / PRW背后的原始动机,但采取了艰难的途径证明了这一点,尽管它具有不凸性和不光滑性,甚至通过~¥citet {Niles-2019在最小极值意义上,可以在实践中使用黎曼优化有效地计算PRW / WPP¥textit {}的原始公式,在相关情况下,其行为比其凸松弛更好。 |
788 |
通过将广义经验似然方法应用于所得的拉格朗日方法,我们提出了CoinDICE,这是一种用于计算置信区间的新颖高效的算法。 |
|
789 |
Simple and Fast Algorithm for Binary Integer and Online Linear Programming |
在本文中,我们开发了一种简单快速的在线算法,用于解决在一般资源分配问题中出现的一类二进制整数线性程序(LP)。 |
790 |
为了从区分最多类别的高维数据中学习固有的低维结构,我们提出了{¥em最大编码率降低}($¥text {MCR} ^ 2 $)的原理,这是一种最大化信息理论的方法整个数据集与每个类别的总和之间的编码率差异。 |
|
791 |
在这项工作中,我们贡献了上下文重复选择(CRS)模型,该模型利用选择模型的最新进展为排名空间带来自然的多模态和丰富性。 |
|
792 |
Color Visual Illusions: A Statistics-based Computational Model |
使用此工具,我们将提供一个支持该方法的模型,并以统一的方式解释亮度和彩色视觉错觉。 |
793 |
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks |
我们介绍了RAG模型,其中参数内存是预训练的seq2seq模型,非参数内存是Wikipedia的密集矢量索引,可通过预训练的神经检索器进行访问。 |
794 |
Universal guarantees for decision tree induction via a higher-order splitting criterion |
我们建议对{¥sl自上而下的决策树学习启发法}进行简单扩展,例如ID3,C4.5和CART。 |
795 |
Trade-offs and Guarantees of Adversarial Representation Learning for Information Obfuscation |
鉴于这一差距,我们为属性混淆开发了一种新颖的理论框架。 |
796 |
在这项工作中,我们将任务的逻辑组成形式化为布尔代数。 |
|
797 |
为了扩大可以以端到端的方式解决的学习问题的范围,我们提出了一种系统的方法,可以将优化程序转换为可微分且永远不会局部不变的运算。 |
|
798 |
为了解决这个问题,我们提出了最小二乘回归的Stackelberg竞争模型,该模型中的数据由希望为其数据实现特定预测的代理商提供。 |
|
799 |
我们研究了在线线性优化(OLO)问题,在此问题中,决策者可以在每个回合中向学习者提供$ K $“提示”向量的访问权限。 |
|
800 |
Dynamical mean-field theory for stochastic gradient descent in Gaussian mixture classification |
我们采用统计物理学中的动态平均场理论,通过一个自洽的随机过程,在高维范围内跟踪算法的动力学。 |
801 |
Causal Discovery from Soft Interventions with Unknown Targets: Characterization and Learning |
在本文中,当干预目标未知时,我们将从观察和软实验数据的组合中研究非马尔可夫系统中的结构学习任务(即,当潜在变量影响多个可观察值时)。 |
802 |
Exploiting the Surrogate Gap in Online Multiclass Classification |
我们介绍了¥textproc {Gaptron},这是一种用于在线多类分类的随机一阶算法。 |
803 |
我们试图通过引入分段线性和基于图像的数据集来调和SB和神经网络的高级标准泛化与实践中观察到的非健壮性,其中(a)包含精确的简单性概念,(b)包含多个预测特征具有不同程度的简单性,并且(c)捕获了基于实际数据训练的神经网络的非鲁棒性。 |
|
804 |
Automatically Learning Compact Quality-aware Surrogates for Optimization Problems |
为了解决这些缺点,我们通过用元变量表示可行空间来学习大型优化问题的低维替代模型,每个元变量都是原始变量的线性组合。 |
805 |
我们提出了一个估计器和置信区间,用于根据上下文强盗设置中的非政策数据计算政策的价值。 |
|
806 |
Can Q-Learning with Graph Networks Learn a Generalizable Branching Heuristic for a SAT Solver? |
我们提出了Graph-Q-SAT,这是布尔SAT求解器的分支启发式算法,它使用图神经网络进行函数逼近,使用基于值的强化学习(RL)进行训练。 |
807 |
Non-reversible Gaussian processes for identifying latent dynamical structure in neural data |
因此,我们引入了GPFADS(具有动态结构的高斯过程因子分析),该模型使用低维,不可逆的潜在过程对单次试验神经种群活动进行建模。 |
808 |
我们引入了用于语音去噪的深度学习模型,这是在众多应用中引起的音频分析领域的长期挑战。 |
|
809 |
在这里,我们提出了一个称为BoxE的时空转换嵌入模型,该模型同时解决了所有这些限制。 |
|
810 |
在本文中,我们提出了一种用于解决HMC问题的新方法C-HMCNN(h),该方法给定了基础h的多标签分类问题的网络h,它利用层次结构信息来产生与约束相一致的预测并改进性能。 |
|
811 |
Walsh-Hadamard Variational Inference for Bayesian Deep Learning |
受到有关内核方法,特别是随机矩阵分布的结构近似的文献的启发,本文提出了Walsh-Hadamard变分推论(WHVI),该方法使用基于Walsh-Hadamard的因式分解策略来减少参数化并加速计算,从而避免了过度变目标的正规化问题。 |
812 |
本文介绍了联邦Thompson抽样(FTS),该抽样原则上克服了FBO和FL的许多关键挑战:我们(a)使用随机傅立叶特征来近似BO中使用的高斯过程替代模型,该模型自然产生以下参数: (b)基于Thompson抽样设计FTS,这大大减少了要交换的参数数量,并且(c)提供了对异构代理具有鲁棒性的理论收敛保证,这在FL和FBO。 |
|
813 |
MultiON: Benchmarking Semantic Map Memory using Multi-Object Navigation |
我们提出了multiON任务,该任务需要在现实环境中导航到特定于情节的对象序列。 |
814 |
我们提出了神经复杂性(NC),一种用于预测泛化的元学习框架。 |
|
815 |
Optimal Iterative Sketching Methods with the Subsampled Randomized Hadamard Transform |
我们的技术贡献包括用于投影矩阵逆的第二矩的新颖公式。 |
816 |
我们对Sinclair,Banerjee和Yu(2019)的算法进行了精细分析,并显示其遗憾程度随实例的缩放比例而变。 |
|
817 |
我们提出ShapeFlow,这是一个基于流的模型,用于学习具有较大的类内变化的整个3D形状类别的变形空间。 |
|
818 |
Self-Supervised Learning by Cross-Modal Audio-Video Clustering |
基于这种直觉,我们提出了跨模态深度聚类(XDC),这是一种新颖的自我监督方法,该方法利用一种模式(例如音频)中的无监督聚类作为另一种模式(例如视频)的监督信号。 |
819 |
Optimal Query Complexity of Secure Stochastic Convex Optimization |
我们研究¥emph {secure}随机凸优化问题:一个学习者旨在通过顺序查询(随机)梯度oracle来学习凸函数的最优点,与此同时,有一个旨在自由骑乘和通过观察学习者的查询来推断学习者的学习结果。 |
820 |
在本文中,我们提出了一种新颖的动态BERT模型(缩写为DynaBERT),该模型可以通过选择自适应宽度和深度来灵活地调整大小和延迟。 |
|
821 |
Generalization Bound of Gradient Descent for Non-Convex Metric Learning |
在本文中,我们从理论上解决了这个问题,并证明了通过梯度下降(GD)优化的具有非凸目标函数的度量学习算法的不可知近似正确(PAC)学习能力;特别地,我们的理论保证考虑了迭代次数。 |
822 |
在本文中,我们提出了第一个针对此问题的动态算法。 |
|
823 |
在这项工作中,我们开发了使用强盗算法推断批量收集的数据的方法。 |
|
824 |
Approximate Cross-Validation with Low-Rank Data in High Dimensions |
以此观察为指导,我们开发了一种新的ACV算法,该算法在ALR数据存在的情况下快速而准确。 |
825 |
本文介绍了一种简单的技术,用于分析生成对抗网络(GAN)并创建用于图像合成的可解释控件,例如视点变化,老化,光照和一天中的时间。 |
|
826 |
Differentiable Expected Hypervolume Improvement for Parallel Multi-Objective Bayesian Optimization |
我们推导了q预期超量改进(qEHVI)的新公式,qEHVI是将EHVI扩展到并行,受约束的评估设置的获取函数。 |
827 |
Neuron-level Structured Pruning using Polarization Regularizer |
为了实现这个目标,我们提出了一种新的缩放因子正则化器,即极化正则化器。 |
828 |
我们提出了有关在Isingmodels中检测稀疏变化的新型信息理论限制,该问题在许多由于某些外部刺激而可能发生网络变化的应用中都会出现。 |
|
829 |
我们提出了一种用于学习多字段分类数据的新方法。 |
|
830 |
我们建议在不同(低秩)向量子空间中学习彼此保持正交的任务,以最大程度地减少干扰。 |
|
831 |
Unsupervised Learning of Visual Features by Contrasting Cluster Assignments |
在本文中,我们提出了一种在线算法SwAV,该算法利用对比方法的优势,而无需计算成对比较。 |
832 |
在这项工作中,我们研究了Steinke和Zakynthinou(2020)提出的建议,通过引入一个包含训练样本作为随机子集的超级样本并计算以超级样本为条件的互信息来推理学习算法的泛化误差。 。 |
|
833 |
Learning Deformable Tetrahedral Meshes for 3D Reconstruction |
我们引入了¥emph {变形四面体网格}(DefTet)作为使用体积四面体网格解决重建问题的特殊参数化。 |
834 |
我们考虑在信号和可访问数据点的非零分量数量相对于信号大小而言为次线性的情况下的广义线性模型。 |
|
835 |
在本文中,我们的目标正是通过利用现代自我监督的深度学习方法以及最近从三个幼儿的角度记录的纵向,以自我为中心的视频数据集来实现这样的进步(Sullivan等,2020)。 |
|
836 |
Unsupervised Semantic Aggregation and Deformable Template Matching for Semi-Supervised Learning |
在本文中,我们将两者结合起来,为SSL提出了一种无监督的语义聚合和可变形模板匹配(USADTM)框架,该框架力图通过较少的标记数据来提高分类性能,然后降低数据注释的成本。 |
837 |
但是,我们关注的不是集中在生物进化的类人代理上,而是更好地了解包含通用增强型学习代理的工程化网络系统的学习和操作行为,这些系统仅受诸如内存,计算和通信带宽之类的非生物约束。 |
|
838 |
What shapes feature representations? Exploring datasets, architectures, and training |
我们使用可直接控制输入要素任务相关性的综合数据集研究这些问题。 |
839 |
我们研究了随机线性强盗中具有固定置信度的最佳手臂识别问题。 |
|
840 |
Data Diversification: A Simple Strategy For Neural Machine Translation |
我们介绍了数据多样化:一种简单但有效的策略,可以提高神经机器翻译(NMT)的性能。 |
841 |
Interstellar: Searching Recurrent Architecture for Knowledge Graph Embedding |
在这项工作中,基于由三连串序列组成的关系路径,我们将星际定义为沿路径的短期和长期信息的递归神经体系结构搜索问题。 |
842 |
我们提出了基于笔划的绘图任务的生成模型,该模型能够对复杂的自由形式结构进行建模。 |
|
843 |
Learning Multi-Agent Coordination for Enhancing Target Coverage in Directional Sensor Networks |
为实现这一目标,我们提出了一种面向目标的分层多代理协调(HiT-MAC),它将目标覆盖问题分解为两级任务:协调员分配目标和执行者跟踪分配的目标。 |
844 |
Biological credit assignment through dynamic inversion of feedforward networks |
总体而言,我们的工作为大脑中的学分分配引入了另一种观点,并提出了学习过程中时间动态和反馈控制的特殊作用。 |
845 |
Discriminative Sounding Objects Localization via Self-supervised Audiovisual Matching |
在本文中,我们提出了一个两阶段的学习框架来执行自我监督的类感知探测对象定位。 |
846 |
Learning Multi-Agent Communication through Structured Attentive Reasoning |
通过开发针对通信的显式架构,我们的工作旨在通过学习交流,为克服多主体合作中的重要挑战开辟新的方向。 |
847 |
在这项工作中,我们提出了针对自然和广泛研究的多元产品分布类别的新颖的差分私人身份(拟合优度)测试器:R ^ d中的高斯分布具有已知的协方差和{¥pm 1} ^ d以上的产品分布。 |
|
848 |
On the Optimal Weighted $\ell_2$ Regularization in Overparameterized Linear Regression |
我们认为线性模型$¥vy =¥vX¥vbeta_ {¥star} +¥vepsilon $与$ mathbb {R} ^ {n¥times}中的¥¥vX¥在过参数化的体制$ p> n $中。 |
849 |
An Efficient Asynchronous Method for Integrating Evolutionary and Gradient-based Policy Search |
在本文中,我们介绍了一种异步进化策略-强化学习(AES-RL),该算法可最大化ES的并行效率,并将其与策略梯度方法集成。 |
850 |
在这里,我们将形状空间的学习形式化为元学习问题,并利用基于梯度的元学习算法来解决此任务。 |
|
851 |
Simple and Scalable Sparse k-means Clustering via Feature Ranking |
在本文中,我们提出了一种新颖的稀疏k均值聚类框架,该框架直观,易于实现并且与最新算法竞争。 |
852 |
我们提出了一个极小极大目标,并通过在学习固定任务的动力学模型与找到当前模型的¥textit {adversarial}任务之间进行交替来优化该目标,该任务是该模型所诱导的策略最大程度次优的任务。 |
|
853 |
Graph Policy Network for Transferable Active Learning on Graphs |
在本文中,我们研究了GNN的主动学习,即如何有效地标记图上的节点以减少训练GNN的注释成本。 |
854 |
在这项工作中,我们对GAN的经验损失进行了全局分析。 |
|
855 |
我们提出了两种加权方案,并证明它们可以针对任何联合作用$ Q $值恢复正确的最大作用,因此对于$ Q ^ * $也是如此。 |
|
856 |
BanditPAM: Almost Linear Time k-Medoids Clustering via Multi-Armed Bandits |
我们提出BanditPAM,这是一种受多臂匪徒技术启发的随机算法,它在数据假设的基础上,将每次PAM迭代的复杂度从O(n ^ 2)降低到O(nlogn),并以高概率返回相同结果。在实践中经常会出现。 |
857 |
UDH: Universal Deep Hiding for Steganography, Watermarking, and Light Field Messaging |
充分利用其“ ¥ emph {universal}”的性质,我们建议使用通用水印作为一种及时的解决方案,以解决图像/视频数量呈指数增长的担忧。 |
858 |
Evidential Sparsification of Multimodal Latent Spaces in Conditional Variational Autoencoders |
我们考虑在保留其学习的多模态的同时,稀疏训练有条件的条件变分自动编码器的离散潜在空间的问题。 |
859 |
An Unbiased Risk Estimator for Learning with Augmented Classes |
在本文中,我们表明,通过使用无标签的训练数据来近似增强类的潜在分布,可以在温和的假设下为LAC问题建立测试分布的无偏风险估计量,这为开发合理的方法铺平了道路理论上的保证。 |
860 |
AutoBSS: An Efficient Algorithm for Block Stacking Style Search |
所提出的方法AutoBSS是一种基于贝叶斯优化的新颖AutoML算法,该算法是通过反复细化和聚类块堆叠样式代码(BSSC)进行聚类的,它可以在少数试验中找到最佳的BSS,而不会产生偏差评估。 |
861 |
Pushing the Limits of Narrow Precision Inferencing at Cloud Scale with Microsoft Floating Point |
在本文中,我们探讨了Microsoft浮点(MSFP)的局限性,MSFP是为在定制硬件上进行生产云规模推断而开发的一类新的数据类型。 |
862 |
我们提供了对常见优化方法的“数据回显”扩展的首次收敛分析,表明它们与同步同步方法相比具有可证明的改进。 |
|
863 |
Self-supervised Auxiliary Learning with Meta-paths for Heterogeneous Graphs |
在本文中,为了学习异构图上的图神经网络,我们提出了一种新的使用元路径的自监督辅助学习方法,该元路径是多种边类型的复合关系。 |
864 |
在本文中,我们提出了一个基于图的光度立体网络,该网络统一了每个像素和所有像素的处理,以探索图像间和图像内信息。 |
|
865 |
Consistent Structural Relation Learning for Zero-Shot Segmentation |
在这项工作中,我们提出了一种一致的结构关系学习(CSRL)方法,以通过利用可见和不可见类别之间的结构关系来约束看不见的视觉特征的生成。 |
866 |
我们研究随机环境中的强盗模型选择。 |
|
867 |
为了同时处理截断和高维,我们开发了新技术,这些技术不仅可以概括现有技术,而且我们认为它们具有独立的利益。 |
|
868 |
Incorporating Pragmatic Reasoning Communication into Emergent Language |
鉴于他们的组合已经在语言学中进行了探索,因此在本文中,我们将基于短期相互推理的语用学的计算模型与长期语言出现主义相结合。 |
869 |
我们提出一种技术来利用DSC算法中数据增强的好处。 |
|
870 |
针对固定置信度和固定预算情况下的纯探索线性强盗问题,本文提出了一种近最优算法。 |
|
871 |
受此启发,我们建议通过图神经网络对归因图子结构进行计数的能力来研究图神经网络的表达能力,并扩展最近的工作,以检验它们在图同构测试和函数逼近中的作用。 |
|
872 |
A Bayesian Perspective on Training Speed and Model Selection |
我们以贝叶斯的观点来说明线性模型中训练速度和边际可能性之间的联系。 |
873 |
在本文中,我们将模块化的属性定义为有效学习每个输入实例$ I $的不同函数的能力。 |
|
874 |
Doubly Robust Off-Policy Value and Gradient Estimation for Deterministic Policies |
为了规避此问题,我们提出了几种基于不同核化方法的新的双稳健估计器。 |
875 |
本文研究了使用神经网络(NN)函数逼近器的梯度时差(GTD)算法,以最大程度地降低均方Bellman误差(MSBE)。 |
|
876 |
Learning Discrete Energy-based Models via Auxiliary-variable Local Exploration |
在本文中,我们提出了¥modelshort,这是一种用于学习离散结构化数据的有条件和无条件EBM的新算法,其中使用模拟本地搜索的学习型采样器来估计参数梯度。 |
877 |
在这里,我们开发了一种新的学习算法“承包商递归反向传播”(C-RBP),该算法通过使用递归处理步骤实现恒定的O(1)内存复杂性来缓解这些问题。 |
|
878 |
Entropic Optimal Transport between Unbalanced Gaussian Measures has a Closed Form |
在本文中,我们建议通过证明两个高斯测度之间的熵正则化最优输运问题采用封闭形式来填补这两种思想在OT中的交集处。 |
879 |
为了解决这个问题,我们提出了BRP-NAS,这是一种有效的基于硬件的NAS,它通过基于图卷积网络(GCN)的准确的性能预测器实现。 |
|
880 |
Deep Shells: Unsupervised Shape Correspondence with Optimal Transport |
我们针对3D形状对应关系提出了一种新颖的无监督学习方法,该方法将多尺度匹配管道构建到了深度神经网络中。 |
881 |
ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse Coding |
在本文中,我们将神经体系结构搜索公式化为稀疏编码问题。 |
882 |
Rel3D: A Minimally Contrastive Benchmark for Grounding Spatial Relations in 3D |
在本文中,我们通过构造Rel3D来填补这一空白:Rel3D是第一个大规模的,带有人类注释的数据集,用于将3D空间关系作为基础。 |
883 |
我们的方法ExpO是这些方法的混合,可以在训练时对解释质量进行规范化。 |
|
884 |
Trust the Model When It Is Confident: Masked Model-based Actor-Critic |
在这项工作中,我们发现更好的模型用法可以带来巨大的不同。 |
885 |
在本文中,我们提出了SemiNAS,一种半监督的NAS方法,该方法利用了许多未标记的架构(无需评估,因此几乎没有成本)。 |
|
886 |
Consistency Regularization for Certified Robustness of Smoothed Classifiers |
我们发现,通过简单地对噪声进行预测一致性调整,可以极大地控制平滑分类器的准确性和经过验证的鲁棒性之间的权衡。 |
887 |
Robust Multi-Agent Reinforcement Learning with Model Uncertainty |
在这项工作中,我们研究具有模型不确定性的多主体强化学习(MARL)问题,称为鲁棒MARL。 |
888 |
SIRI: Spatial Relation Induced Network For Spatial Description Resolution |
模仿人类,他们以第一人称视角顺序遍历空间关系词和对象以定位其目标,我们提出了一种新颖的空间关系诱导(SIRI)网络。 |
889 |
在这项工作中,我们考虑了使用自适应采样来估计高阶相关性的基本问题。 |
|
890 |
为了减轻以前的微调方法的效率,我们提出了有效的一键式视频对象分割(e-OSVOS)。 |
|
891 |
现有的用于估计深度学习不确定性的方法往往需要多次前向通过,从而使其不适用于计算资源有限的应用。为了解决这个问题,我们在神经网络的深度上执行概率推理。 |
|
892 |
我们提供了描述特征图和读出图的一般条件,这些条件和特征图保留了体系结构在紧凑结构上统一逼近任何连续函数的能力。 |
|
893 |
Constraining Variational Inference with Geometric Jensen-Shannon Divergence |
我们基于{¥em偏斜几何Jensen-Shannon散度} $¥left(¥textrm {JS} ^ {¥textrm {G} _ {¥alpha}}¥right)$介绍一种正则化机制。 |
894 |
我们从效用理论的角度阐述了这两种方法,并表明该新方法可以解释为“用人的吉布斯抽样”(GSP)。 |
|
895 |
HM-ANN: Efficient Billion-Point Nearest Neighbor Search on Heterogeneous Memory |
在这项工作中,我们提出了一种新颖的基于图形的相似度搜索算法,称为HM-ANN,该算法同时考虑了内存和数据的异构性,并且可以在不使用压缩的情况下在单个节点上进行十亿规模的相似度搜索。 |
896 |
FrugalML: How to use ML Prediction APIs more accurately and cheaply |
我们通过提出FrugalML(一种有原则的框架,可以共同了解不同数据上每个API的优缺点),并进行有效的优化以自动识别最佳顺序策略,以自适应地使用AAPI中的可用API来应对这一挑战的第一步。预算约束。 |
897 |
Sharp Representation Theorems for ReLU Networks with Precise Dependence on Depth |
对于本文定义的一类函数G_D,我们证明了在正方形损失下具有D ReLU层的神经网络的无量纲表示结果。 |
898 |
Shared Experience Actor-Critic for Multi-Agent Reinforcement Learning |
我们建议通过在代理商之间共享经验来进行有效勘探的通用方法。 |
899 |
在本文中,我们基于单调算子理论开发了一种新的隐式深度模型,即单调算子平衡网络(monDEQ)。 |
|
900 |
为此,本文开发了一种贝叶斯模型,用于预测全球范围内COVID-19遏制政策的效果-我们将每个国家/地区视为一个单独的数据点,并利用各国之间的政策差异来学习特定国家/地区的政策效果。 |
|
901 |
Unsupervised Learning of Lagrangian Dynamics from Images for Prediction and Control |
我们引入了一种新的无监督神经网络模型,该模型从图像中学习拉格朗日动力学,其可解释性有利于预测和控制。 |
902 |
我们推导了一种新颖的O(n ^ {2/3})无维数极小极大值,遗憾的是在数据贫乏的情况下稀疏线性强盗的下界,在数据贫乏的情况下,视界大于环境维度,并且特征向量允许条件良好勘探分布。 |
|
903 |
为了克服这个问题,我们提出了一种有效的算法,用于带记忆的损失函数的匪凸优化的一般设置,这可能是独立引起的。 |
|
904 |
在这项工作中,我们将[Avron,Kapralov,Musco,Musco,Vellingker和Zandieh 17]中的结果推广到更广泛的内核。 |
|
905 |
在本文中,我们为$(¥epsilon,¥delta)$-¥texttt {PAC}学习最佳手臂提出了一种新方法。 |
|
906 |
Efficient Projection-free Algorithms for Saddle Point Problems |
在本文中,我们研究了具有复杂约束的凸-强凹鞍点问题的无投影算法。 |
907 |
A mathematical model for automatic differentiation in machine learning |
在这项工作中,我们阐明了在实践中实施的程序的差异与非平稳功能的差异之间的关系。 |
908 |
在这项工作中,我们提出了TGLS,这是一种通过从搜索中学习来生成无监督文本的新颖框架。 |
|
909 |
在这项工作中,我们提出了一种神经符号模型,该模型从一小组示例中学习整个规则系统。 |
|
910 |
Incorporating BERT into Parallel Sequence Decoding with Adapters |
在本文中,我们建议通过分别采用两种不同的BERT模型作为编码器和解码器来解决此问题,并通过引入简单轻巧的适配器模块对其进行微调,该适配器模块插入BERT层之间并在特定于任务的数据集上进行调整。 |
911 |
Estimating Fluctuations in Neural Representations of Uncertain Environments |
在本文中,我们开发了一个新的状态空间建模框架来解决与重新映射有关的两个重要问题。 |
912 |
Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for Semantic Segmentation |
在本文中,我们研究了开放式复合域自适应(OCDA),它同时处理混合和新颖情况,用于语义分割。 |
913 |
SURF: A Simple, Universal, Robust, Fast Distribution Learning Algorithm |
我们介绍了$¥SURF $,这是一种通过分段多项式近似分布的算法。 |
914 |
在这项工作中,我们揭示了在特定条件下,具有近似Fisher信息的NGD可以与精确NGD一样快速地收敛到全局最小值。 |
|
915 |
General Transportability of Soft Interventions: Completeness Results |
在本文中,我们将可迁移性理论扩展到涵盖这些更复杂的干预类型,这些干预相对于分析的输入和目标分布都被称为“软性”。 |
916 |
GAIT-prop: A biologically plausible learning rule derived from backpropagation of error |
在这里,我们得出反向传播与目标传播的修正形式(GAIT-prop)之间的精确对应关系,其中目标是对前向通行的微扰。 |
917 |
Lipschitz Bounds and Provably Robust Training by Laplacian Smoothing |
在这项工作中,我们提出了一种基于图的学习框架来训练具有可证明的鲁棒性的对抗性摄动模型。 |
918 |
SCOP: Scientific Control for Reliable Neural Network Pruning |
通过建立科学的控制机制,提出了一种可靠的神经网络修剪算法。 |
919 |
在本文中,我们提出了候选标签集的第一代模型,并开发了两种保证可证明是一致的PLL方法,即一种是风险一致的,而另一种是分类符一致的。 |
|
920 |
Robust, Accurate Stochastic Optimization for Variational Inference |
基于最新理论,我们提出了一种简单且并行的方法来改进SGD估计的变分推理。 |
921 |
在本文中,我们研究了在签名网络中检测$ k $冲突组的问题。 |
|
922 |
Learning Some Popular Gaussian Graphical Models without Condition Number Bounds |
在这里,我们给出了第一个固定的多项式时间算法,用于在不进行任何此类假设的情况下,以对数数量的样本来学习有吸引力的GGM和步行可加GGM 。 |
923 |
Sense and Sensitivity Analysis: Simple Post-Hoc Analysis of Bias Due to Unobserved Confounding |
本文的目的是开发奥斯丁图,这是一种敏感性分析工具,可通过使人们更容易推断出未观察到的混杂所引起的潜在偏差来帮助进行此类判断。 |
924 |
Mix and Match: An Optimistic Tree-Search Approach for Learning Models from Mixture Distributions |
我们考虑一个协变量转移问题,其中一个人可以访问针对同一学习问题的几个不同的训练数据集和一个很小的验证集,该验证集可能不同于所有单独的训练分布。 |
925 |
Understanding Double Descent Requires A Fine-Grained Bias-Variance Decomposition |
为了进行细粒度分析,我们将方差的可解释性,对称分解描述为与来自采样,初始化和标签的随机性相关的术语。 |
926 |
VIME: Extending the Success of Self- and Semi-supervised Learning to Tabular Domain |
在本文中,我们通过为表格数据提出新颖的自我监督和半监督学习框架来填补这一空白,我们将这些框架统称为VIME(值插补和掩码估计)。 |
927 |
我们开发了一个框架,该框架利用Spielman和Teng进行的平滑复杂性分析来规避社会选择中的悖论和不可能定理,这是由AI和ML支持的现代社会选择应用所激发的。 |
|
928 |
A Decentralized Parallel Algorithm for Training Generative Adversarial Nets |
在本文中,我们通过设计¥textbf {第一个基于梯度的分散并行算法}来解决此难题,该算法允许工作人员在一次迭代中进行多轮通信,并同时更新鉴别器和生成器,这种设计使其适用于提出的分散算法的收敛性分析。 |
929 |
Phase retrieval in high dimensions: Statistical and computational phase transitions |
我们考虑从$ m $(可能有噪声)观测值重构$ n $维实数或复数信号$¥mathbf {X} ^¥star $的相位检索问题。¥sum_ {i = 1} ^ n¥Phi_ {¥mu i} X ^ {¥star} _i /¥sqrt {n} | $,用于一类相关的实数和复数相关的随机传感矩阵$¥mathbf {¥Phi } $,在高维设置中,其中$ m,n¥至¥infty $,而$¥alpha = m / n =¥Theta(1)$。 |
930 |
具体来说,我们提出了一种新颖的策略来针对具有多个敏感群体的多类别分类问题得出群体公平绩效指标,其中还包括选择预测绩效与公平违规之间的权衡。 |
|
931 |
Hybrid Variance-Reduced SGD Algorithms For Minimax Problems with Nonconvex-Linear Function |
我们开发了一种新颖的单环减少方差的算法来解决一类涉及非凸线性目标函数的随机非凸-凸极小极大问题,该问题在机器学习和鲁棒性优化等不同领域具有多种应用。 |
932 |
Belief-Dependent Macro-Action Discovery in POMDPs using the Value of Information |
在这里,我们提出了一种直接从低级POMDP模型中提取依赖于信念的可变长度宏动作的方法。 |
933 |
在本文中,我们说明了为什么这样的划分对于学习本地化功能会造成问题。 |
|
934 |
为此,我们提出了一种细粒度的动态头,可以针对每种情况从不同的比例有条件地选择FPN特征的像素级组合,从而进一步释放了多比例特征表示的能力。 |
|
935 |
在这项工作中,我们发现通过重叠堆叠在一起的局部块,我们有效地增加了解码器的深度,并允许较高的块隐式发送反馈到较低的块。 |
|
936 |
我们介绍并严格定义了元学习中准确建模与优化便捷之间的权衡。 |
|
937 |
在这项工作中,我们研究了异质牛顿升压机(HNBM),其中基本假设类别在整个升压迭代中可能会有所不同。 |
|
938 |
我们为距离估算提供了一个静态数据结构,该结构支持{¥it自适应}查询。 |
|
939 |
针对这个问题,我们提出了两种新颖的算法,即阶段保守线性汤普森抽样(SCLTS)和阶段保守线性线性UCB(SCLUCB),它们尊重基线约束并享受$¥mathcal {O}()的概率后悔界限。 ¥sqrt {T}¥log ^ {3/2} T)$和$¥mathcal {O}(¥sqrt {T}¥log T)$。 |
|
940 |
RELATE: Physically Plausible Multi-Object Scene Synthesis Using Structured Latent Spaces |
我们介绍了RELATE,该模型可学习生成物理上合理的场景和多个交互对象的视频。 |
941 |
我们研究一个受个体公平约束的在线学习问题,这要求对相似的个体进行相似的对待。 |
|
942 |
在本文中,我们提出了一种新的基于两阶段失真感知贪婪的方法,称为“贪婪的傻瓜”。 |
|
943 |
VAEM: a Deep Generative Model for Heterogeneous Mixed Type Data |
我们提出了一种扩展的可变自动编码器(VAE),称为VAEM,用于处理此类异构数据。 |
944 |
RetroXpert: Decompose Retrosynthesis Prediction Like A Chemist |
在本文中,我们设计了一种新颖的无需模板的自动逆向合成扩展算法,其灵感来自化学家如何进行逆向合成预测。 |
945 |
Sample-Efficient Optimization in the Latent Space of Deep Generative Models via Weighted Retraining |
我们介绍了一种有效的黑匣子优化的改进方法,该方法在由深度生成模型学习的低维连续潜流形中执行优化。 |
946 |
Improved Sample Complexity for Incremental Autonomous Exploration in MDPs |
在本文中,我们介绍了一种新颖的基于模型的方法,该方法可交错地从$ s_0 $发现新状态并提高用于计算目标条件策略的模型估计的准确性。 |
947 |
TinyTL: Reduce Memory, Not Parameters for Efficient On-Device Learning |
在这项工作中,我们介绍了Tiny-Transfer-Learning(TinyTL),以实现内存高效的设备内学习。 |
948 |
RD$^2$: Reward Decomposition with Representation Decomposition |
在这项工作中,我们通过约束与不同子奖励相关的不同状态特征/表示的唯一性和紧凑性,提出了一套新颖的奖励分解原理。 |
949 |
Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID |
为了解决这些问题,我们提出了一种具有混合记忆的新型自定进度的对比学习框架。 |
950 |
Fairness constraints can help exact inference in structured prediction |
我们发现,与公平性和模型性能之间的已知折衷相比,公平性约束的添加提高了精确恢复的可能性。 |
951 |
我们建议在一组专用策略上训练一个共享的信念表示,然后从中计算出一个用于数据收集的共识策略,不允许使用特定于实例的方法。 |
|
952 |
我们在这里提出一种回归树的广义化,称为概率回归(PR)树,它适应于与输入和输出变量有关的预测函数的平滑性,同时保留了预测的可解释性并且对噪声具有鲁棒性。 |
|
953 |
Computing Valid p-value for Optimal Changepoint by Selective Inference using Dynamic Programming |
在本文中,我们介绍了一种新颖的方法,可以通过基于动态编程(DP)的最佳CP检测算法对CP的重要性进行统计推断。 |
954 |
Factorized Neural Processes for Neural Processes: K-Shot Prediction of Neural Responses |
我们通过将问题表示为$ K $ -shot预测来克服此限制,该预测可以使用神经过程从一小组刺激响应对中直接推断出神经元的调节功能。 |
955 |
我们重新审视了修剪算法的基本方面,指出了先前方法中缺少的成分,并开发了一种连续稀疏化方法,该方法基于难以解决的10正则化的新颖近似来搜索稀疏网络。 |
|
956 |
在这项工作中,我们强调了自然低秩表示的好处,这种低阶表示经常存在于真实数据(例如图像)中,用于训练具有经过认证的鲁棒性保证的神经网络。 |
|
957 |
在本文中,我们证明了DT和RF可以自然地解释为生成模型,方法是与概率电路(一种可处理的概率模型的显着类)建立联系。 |
|
958 |
Compositional Generalization by Learning Analytical Expressions |
受到认知工作的启发,该工作认为合成可以被具有符号功能的可变槽捕获,我们提出了一种新颖的视图,将记忆增强的神经模型与解析表达式相连接,以实现合成概括。 |
959 |
我们介绍了JAX MD,这是一个用于执行可微分的物理模拟的软件包,重点关注分子动力学。 |
|
960 |
An implicit function learning approach for parametric modal regression |
在这项工作中,我们提出了一种参数模态回归算法。 |
961 |
SDF-SRN: Learning Signed Distance 3D Object Reconstruction from Static Images |
在本文中,我们解决了这个问题,并提出了SDF-SRN,这种方法在训练时只需要单个对象视图,就可以为实际场景提供更大的实用性。 |
962 |
Coresets for Robust Training of Deep Neural Networks against Noisy Labels |
为了解决这一挑战,我们提出了一种具有强大理论保证的新颖方法,可以对带有噪声标签的神经网络进行健壮的训练。 |
963 |
我们引入了针对$¥varepsilon $-错误指定的上下文强盗的新的Oracle高效算法家族,这些强盗适应于未知的模型错误指定-包括有限动作设置和无限动作设置。 |
|
964 |
Convergence of Meta-Learning with Task-Specific Adaptation over Partial Parameters |
在本文中,我们描述了两种典型的内环损耗几何(即强凸性和非凸性)下ANIL的收敛速度和计算复杂度。 |
965 |
MetaPerturb: Transferable Regularizer for Heterogeneous Tasks and Architectures |
为了弥合两者之间的鸿沟,我们提出了一种可转移的扰动MetaPerturb,该元扰动是元学习的,可以提高对看不见的数据的泛化性能。 |
966 |
Learning to solve TV regularised problems with unrolled algorithms |
在本文中,我们通过展开近端梯度下降求解器来加速此类迭代算法,以了解其在一维TV正则化问题中的参数。 |
967 |
在本文中,我们介绍了Slot Attention模块,这是一个架构组件,可与诸如卷积神经网络的输出之类的感知表示对接,并生成一组称为任务的依赖于任务的抽象表示。 |
|
968 |
Improving robustness against common corruptions by covariate shift adaptation |
关键的见解是,在许多情况下,都可以使用多个未标记的损坏示例,这些示例可用于无监督的在线适应。 |
969 |
我们提出了一种神经网络(NN)方法来拟合和预测隐含波动率表面(IVS)。 |
|
970 |
Probabilistic Inference with Algebraic Constraints: Theoretical Limits and Practical Approximations |
在这项工作中,我们在理论和算法方面都改进了WMI框架。 |
971 |
Provable Online CP/PARAFAC Decomposition of a Structured Tensor via Dictionary Learning |
我们考虑将结构化三向张量分解成其组成的规范多联(CP)因子的问题。 |
972 |
在这项工作中,我们提出了超前MAML(La-MAML),这是一种基于快速优化的元学习算法,用于在线持续学习,并有少量的情节记忆。 |
|
973 |
A polynomial-time algorithm for learning nonparametric causal graphs |
我们为用于从数据中学习非线性,非参数有向无环图(DAG)模型的多项式时间算法建立有限样本保证。 |
974 |
本文旨在研究用CART构建的回归树的统计特性。 |
|
975 |
与通过模型权重间接优化它们的流行方法相反,我们建议将近端映射作为新层插入到深层网络中,从而直接和显式地产生规则化的隐藏层输出。 |
|
976 |
Identifying Causal-Effect Inference Failure with Uncertainty-Aware Models |
我们介绍了一种实用的方法,用于将不确定性估计集成到用于个体级因果估计的一类最新的神经网络方法中。 |
977 |
在本文中,我们引入了一个名为“层次粒度转移学习”(HGTL)的新任务,以识别具有基本级别注释和层次结构类别的语义描述的子层次类别。 |
|
978 |
在本文中,我们提出了一种神经体系结构,用于使用多种形式的蒙特卡洛(MC)采样来构建在复杂的连续状态空间中运行的深度主动推理代理。 |
|
979 |
Consistent Estimation of Identifiable Nonparametric Mixture Models from Grouped Observations |
这项工作提出了一种算法,该算法可以根据分组的观测值一致地估计任何可识别的混合模型。 |
980 |
但是,本文表明,现有的随机图形模型(包括石墨烯和其他潜在位置模型)可以预测数据应该位于一个低维集附近。 |
|
981 |
我们提出了新的算法,可以通过使用分数区域的完整频谱来概括学习的Bloom滤波器。 |
|
982 |
我们提出了MCUNet,该框架可以共同设计高效的神经体系结构(TinyNAS)和轻量级推理引擎(TinyEngine),从而在微控制器上实现ImageNet规模的推理。 |
|
983 |
着重于概括界限,这项工作解决了如何凭经验评估这些界限的问题。 |
|
984 |
我们提出了一种高效的与任务无关的RL算法¥textsc {UCBZero},该算法在最多$¥代字号O(¥log(N)H ^ 5SA /¥epsilon之后,为$ N $个任意任务找到$¥epsilon $个最优策略。 ^ 2)$探索情节。 |
|
985 |
Multi-task Additive Models for Robust Estimation and Automatic Structure Discovery |
为了解决这个问题,我们提出了一种新的加性模型,称为多任务加性模型(MAM),方法是将模式诱导的度量,基于结构的正则化器和加性假设空间集成到一个双层优化框架中。 |
986 |
Provably Efficient Reward-Agnostic Navigation with Linear Value Iteration |
我们为无奖赏设置提供了一种计算上容易处理的算法,并展示了如何将其用于学习任何(线性)奖赏函数的近乎最优的策略,只有在学习完成后才能揭示该策略。 |
987 |
在本文中,我们建议在连续控制中使用Boltzmann softmax算子进行值函数估计。 |
|
988 |
Online Decision Based Visual Tracking via Reinforcement Learning |
与以前的基于融合的方法不同,我们提出了一个名为DTNet的新型集成框架,该框架具有用于基于分层强化学习的视觉跟踪的在线决策机制。 |
989 |
Efficient Marginalization of Discrete and Structured Latent Variables via Sparsity |
在本文中,我们提出了一种新的训练策略,该策略可以通过精确而有效的边缘化代替这些估计量。 |
990 |
DeepI2I: Enabling Deep Hierarchical Image-to-Image Translation by Transferring from GANs |
因此,在这项工作中,我们提出了一种新颖的深度分层图像到图像转换方法,称为DeepI2I。 |
991 |
Distributional Robustness with IPMs and links to Regularization and GANs |
我们通过研究使用积分概率度量(IPM)构造的不确定性集(包括MMD,总变异和Wasserstein距离的一大类差异)来通过正则化来理解稳健性,从而扩展了这一工作范围。 |
992 |
为此,我们介绍了一种射击方式,将视角从逐层参数化网络变为仅由一组初始条件描述的最佳网络参数化。 |
|
993 |
CSI: Novelty Detection via Contrastive Learning on Distributionally Shifted Instances |
在本文中,我们提出了一种简单而有效的方法,称为对比移位实例(CSI),其灵感来自于可视表示的对比学习的最新成功。 |
994 |
Learning Implicit Credit Assignment for Cooperative Multi-Agent Reinforcement Learning |
我们提出了一种多主体行动者批评方法,旨在隐式解决完全合作设置下的信用分配问题。 |
995 |
MATE: Plugging in Model Awareness to Task Embedding for Meta Learning |
为了更好地概括,我们提出了一种新颖的任务表示形式,称为模型感知任务嵌入(MATE),它不仅包含不同任务的数据分布,而且还通过所使用的模型包含了任务的复杂性。 |
996 |
Restless-UCB, an Efficient and Low-complexity Algorithm for Online Restless Bandits |
在Restless-UCB中,我们提出了一种构造离线实例的新颖方法,该方法仅需要$ O(N)$时间复杂度($ N $是臂数),并且比现有学习策略的复杂度好得多。 |
997 |
我们假设捕获预测信息在RL中是有用的,因为成功完成许多任务必须具备对接下来发生的事情进行建模的能力。 |
|
998 |
Robust and Heavy-Tailed Mean Estimation Made Simple, via Regret Minimization |
在本文中,我们提供了一个元问题和一个对偶定理,从而导致人们对高维鲁棒和重尾均值估计有了新的统一看法。 |
999 |
我们广泛研究了如何将生成对抗网络与学习的压缩方法结合起来,以获得最先进的生成有损压缩系统。 |
|
1000 |
A Statistical Mechanics Framework for Task-Agnostic Sample Design in Machine Learning |
在本文中,我们提供了一个统计力学框架,以了解训练数据的采样属性对机器学习(ML)算法的泛化差距的影响。 |
1001 |
我们开发了一个反例指导技术,以在预测时可证明地实施单调性约束。 |
|
1002 |
A Novel Approach for Constrained Optimization in Graphical Models |
我们提出了用于解决该问题的一类近似算法。 |
1003 |
Global Convergence of Deep Networks with One Wide Layer Followed by Pyramidal Topology |
在本文中,我们证明了,对于深度网络,输入层之后紧随其后的单个宽度N的层足以确保相似的保证。 |
1004 |
On the Trade-off between Adversarial and Backdoor Robustness |
在本文中,我们进行实验以研究对抗性鲁棒性和后门鲁棒性是否可以相互影响并权衡取舍-通过增加网络对对抗性示例的鲁棒性,网络变得更容易受到后门攻击。 |
1005 |
为了克服这个困难,我们提出了一种称为隐式图神经网络(IGNN)的图学习框架,其中的预测基于包含隐式定义的“状态”向量的定点平衡方程的解。 |
|
1006 |
Rethinking Importance Weighting for Deep Learning under Distribution Shift |
在本文中,我们对IW进行了重新思考,并从理论上证明了IW具有循环依赖性:我们不仅需要WC的WE,而且还需要将训练有素的深度分类器用作特征提取器(FE)的WE的WC。 |
1007 |
Guiding Deep Molecular Optimization with Genetic Exploration |
在本文中,我们提出了遗传专家指导学习(GEGL),这是一种简单而新颖的框架,用于训练深度神经网络(DNN)以生成高回报分子。 |
1008 |
Temporal Spike Sequence Learning via Backpropagation for Deep Spiking Neural Networks |
我们提出了一种用于训练深度SNN的新颖的时间尖峰序列学习反向传播(TSSL-BP)方法,该方法可以分解跨神经元间和内部神经元依赖的两种类型的错误反向传播,并可以提高时间学习的精度。 |
1009 |
TSPNet: Hierarchical Feature Learning via Temporal Semantic Pyramid for Sign Language Translation |
在本文中,我们探索了手语视频的时间语义结构,以了解更多判别特征。 |
1010 |
我们提出了神经地形因素分析(NTFA),一种概率因素分析模型,可以推断参与者和刺激的嵌入情况。 |
|
1011 |
在这项工作中,我们1)第一个研究铸造NAS作为寻找最佳网络生成器的问题,并且2)我们提出了一种新的,基于层次结构和基于图的搜索空间,能够代表多种网络类型,但仅需要很少的连续超参数。 |
|
1012 |
A Bandit Learning Algorithm and Applications to Auction Design |
在本文中,我们引入了$(¥lambda,¥mu)$凹函数的新概念,并提出了一种强盗学习算法,该算法实现了性能保证,其特征是凹度参数$¥lambda $和$¥的函数亩。 |
1013 |
MetaPoison: Practical General-purpose Clean-label Data Poisoning |
我们提出了MetaPoison,这是一种通过元学习近似二阶问题并制作使神经网络蒙骗的有毒物质的一阶方法。 |
1014 |
Sample Efficient Reinforcement Learning via Low-Rank Matrix Estimation |
作为我们的主要贡献,我们开发了一种简单的迭代学习算法,该算法可找到$¥epsilon $最优的$ Q $函数,样本复杂度为$¥widetilde {O}(¥frac {1} {¥epsilon ^ {¥max( d_1,d_2)+2}})$当最优$ Q $函数具有低秩$ r $并且折现因子$¥gamma $低于某个阈值时。 |
1015 |
我们提出了一种自适应鉴别器增强机制,该机制可显着稳定有限数据环境中的训练。 |
|
1016 |
在本文中,我们提出了一种非线性光谱分解的神经网络近似方法。 |
|
1017 |
在本文中,我们从一个正交的方向进行探索:如何从最冗余的位级别中分步地挤出更多的培训成本节省,并沿着训练轨迹逐步地,动态地按输入进行压缩。 |
|
1018 |
Improving Neural Network Training in Low Dimensional Random Bases |
我们建议在每个步骤重新绘制随机子空间,这将产生明显更好的性能。 |
1019 |
本文提出了一种受人类教学启发的替代方法,其中代理在自动指导员的指导下进行学习,从而避免了代理在学习过程中违反约束。 |
|
1020 |
Leverage the Average: an Analysis of KL Regularization in Reinforcement Learning |
我们在一个近似值迭代方案中研究KL正则化,并表明它隐式平均q值。 |
1021 |
How Robust are the Estimated Effects of Nonpharmaceutical Interventions against COVID-19? |
为了回答这个问题,我们研究了2个最新的NPI有效性模型,并提出了6个不同的结构假设。 |
1022 |
Beyond Individualized Recourse: Interpretable and Interactive Summaries of Actionable Recourses |
为此,我们提出了一个新颖的模型不可知论框架,称为可操作追索权摘要(AReS),以构建全局反事实解释,从而为整个人群提供可解释且准确的追索权摘要。 |
1023 |
我们考虑对合成数据集进行常规研究的监督分类,该合成数据集的标签是通过向具有随机iid输入的单层非线性神经网络馈送生成的。 |
|
1024 |
Projection Efficient Subgradient Method and Optimal Nonsmooth Frank-Wolfe Method |
当可以访问函数的随机(随机)一阶oracle(FO)和约束集的投影oracle(PO)时,我们考虑在凸约束集上优化非光滑Lipschitz连续凸函数的经典设置。 |
1025 |
PGM-Explainer: Probabilistic Graphical Model Explanations for Graph Neural Networks |
在本文中,我们提出了PGM-Explainer,这是一种针对GNN的概率图形模型(PGM)模型不可知的解释器。 |
1026 |
Few-Cost Salient Object Detection with Adversarial-Paced Learning |
为了解决这个问题,本文提出了仅基于人工注释在一些训练图像上学习有效的显着目标检测模型,从而显着减轻训练模型中的人工。 |
1027 |
我们引入了最小-最大标准函数,在该函数下,可以将估计问题视为解决在目标模型的假设空间上进行优化的建模者与识别测试函数中违反时刻的对手之间的零和博弈。空间。 |
|
1028 |
在本文中,我们放宽了这一假设,并在学习者和专家的感官输入不同时研究模仿学习。 |
|
1029 |
Your GAN is Secretly an Energy-based Model and You Should Use Discriminator Driven Latent Sampling |
我们表明,GAN的隐式生成器对数密度$¥log p_g $与鉴别器的logit得分的和定义了一个能量函数,当生成器不完善但鉴别器是最优的时,该函数产生了真实的数据密度,因此使得有可能改进典型的生成器(具有隐式密度$ p_g $)。 |
1030 |
Learning Black-Box Attackers with Transferable Priors and Query Feedback |
通过将基于可迁移性和基于查询的黑盒攻击相结合,我们提出了一种使用代理模型的令人惊讶的简单基线方法(名为SimBA ++),该模型明显优于几种最新方法。 |
1031 |
Locally Differentially Private (Contextual) Bandits Learning |
我们在本文中研究本地差分私有(LDP)土匪学习。 |
1032 |
Invertible Gaussian Reparameterization: Revisiting the Gumbel-Softmax |
我们提出了一种模块化且更灵活的可重新配置分布族,其中高斯噪声通过可逆函数转换为单热近似。 |
1033 |
Kernel Based Progressive Distillation for Adder Neural Networks |
在本文中,我们提出了一种新的方法,可通过基于核的渐进式知识蒸馏(PKKD)方法进一步提高ANN的性能而不会增加可训练的参数。 |
1034 |
Adversarial Soft Advantage Fitting: Imitation Learning without Policy Optimization |
我们建议通过利用新颖的区分器公式消除政策优化步骤的负担。 |
1035 |
Agree to Disagree: Adaptive Ensemble Knowledge Distillation in Gradient Space |
在本文中,我们研究了梯度空间中教师模型的多样性,并将集成知识提炼作为一个多目标优化问题,以便为学生网络的培训确定更好的优化方向。 |
1036 |
在这项工作中,我们提出了一种正向后向(FB)离散化方案,该方案可以解决目标函数是平滑和非平滑测地凸项之和的情况。 |
|
1037 |
我们证明了使用通用量化在测试时也可以实现统一的噪声通道(Ziv,1985)。 |
|
1038 |
在这项工作中,我们对这种行为进行了仔细的遗憾分析,以阐明这一行为。 |
|
1039 |
Investigating Gender Bias in Language Models Using Causal Mediation Analysis |
我们提出了一种基于因果中介分析理论的方法,以解释模型的哪些部分与其行为有因果关系。 |
1040 |
在这项工作中,我们提出了一种样本有效的LfO方法,该方法能够以原则性方式实现政策外优化。 |
|
1041 |
Escaping Saddle-Point Faster under Interpolation-like Conditions |
在本文中,我们证明了在过度参数化的情况下,几种标准的随机优化算法可以避开鞍点并更快地收敛到局部极小值。 |
1042 |
在这项工作中,我们提出了一种通过完全构造性的方式,通过Laplace-Beltrami算符的频谱理论,在紧凑的黎曼流形上计算这些过程的核的技术,从而允许它们通过标准可扩展技术(例如归纳点方法)进行训练。 |
|
1043 |
Improved Techniques for Training Score-Based Generative Models |
我们提供了从高维空间中的分数模型学习和采样的新理论分析,解释了现有的故障模式并激发了适用于整个数据集的新解决方案。 |
1044 |
wav2vec 2.0: A Framework for Self-Supervised Learning of Speech Representations |
我们首次证明,仅从语音音频中学习强大的表示形式,然后对转录语音进行微调,就可以在概念上更简单的情况下胜过最佳的半监督方法。 |
1045 |
A Maximum-Entropy Approach to Off-Policy Evaluation in Average-Reward MDPs |
在更一般的情况下,当特征动力学近似线性且具有任意奖励时,我们提出了一种使用函数逼近来估计平稳分布的新方法。 |
1046 |
Instead of Rewriting Foreign Code for Machine Learning, Automatically Synthesize Fast Gradients |
本文介绍了Enzyme,这是一种适用于LLVM编译器框架的高性能自动微分(AD)编译器插件,能够合成以LLVM中间表示(IR)表示的静态可分析程序的梯度。 |
1047 |
Does Unsupervised Architecture Representation Learning Help Neural Architecture Search? |
在这项工作中,我们从经验上发现,仅使用神经体系结构而不使用其准确性作为标签的预训练体系结构表示可以提高下游体系结构的搜索效率。 |
1048 |
我们开发了介于两个极端之间的RL中表示学习的方法:我们建议学习可以直接帮助价值预测的模型。 |
|
1049 |
具体来说,我们提出了新颖的在线算法,该算法能够利用平滑度,并通过与问题相关的量来代替对动态后悔中对$ T $的依赖:损失函数的梯度变化,比较器序列的累积损失和最小前两个术语中的一个。 |
|
1050 |
On Convergence of Nearest Neighbor Classifiers over Feature Transformations |
这导致我们对kNN的理论理解与实际应用之间出现了差距。在本文中,我们迈出了弥合这一差距的第一步。 |
1051 |
Mitigating Manipulation in Peer Review via Randomized Reviewer Assignments |
然后,我们提出了一种用于审稿人分配的(随机)算法,该算法可以在任何给定的审稿纸对分配概率的任何给定约束下,以最佳方式解决审稿人分配问题。 |
1052 |
在这项工作中,我们提出了利用对特定领域和针对特定问题的线索,在具有限制注释的半监督环境中扩展用于分割医学图像的对比学习框架的策略。 |
|
1053 |
Self-Supervised Graph Transformer on Large-Scale Molecular Data |
为了解决这两个问题,我们提出了一个新颖的框架GROVER,该框架代表通过tRformformer的自监督消息的图形表示。 |
1054 |
在本文中,我们提出了生成神经符号机器,一种生成模型,该模型结合了分布式表示和符号表示的优点,以支持符号组件的结构化表示和基于密度的生成。 |
|
1055 |
How many samples is a good initial point worth in Low-rank Matrix Recovery? |
在本文中,我们量化了初始猜测的质量与数据需求的相应减少之间的关系。 |
1056 |
我们提出了一种新的SGD变体:¥下划线{C}高效通信的¥下划线{S} GD带有¥下划线{E}或¥下划线{R} et或¥下划线{CSER}。 |
|
1057 |
Efficient estimation of neural tuning during naturalistic behavior |
我们通过优化广义交叉验证得分并推断出每个特征对神经反应的贡献的边际置信区间,来开发用于参数学习的有效程序。 |
1058 |
High-recall causal discovery for autocorrelated time series with latent confounders |
我们提出了一种新的方法,用于在潜在混杂因素存在的情况下,从观测时间序列中发现基于线性和非线性,滞后和同时期基于约束的因果关系。 |
1059 |
Forget About the LiDAR: Self-Supervised Depth Estimators with MED Probability Volumes |
我们在KITTI,CityScapes和Make3D数据集上展示了广泛的实验结果,以验证我们方法的有效性。 |
1060 |
本文探讨了通过新颖的概率模型对对比学习的最新发展进行有用的修改。 |
|
1061 |
Robust Gaussian Covariance Estimation in Nearly-Matrix Multiplication Time |
在本文中,我们演示了一种新颖的算法,该算法可实现相同的统计保证,但是可以按时间运行$¥widetilde {O}(T(N,d)¥log¥kappa)$。 |
1062 |
Adversarially-learned Inference via an Ensemble of Discrete Undirected Graphical Models |
相反,我们提出了一个与推理无关的对抗训练框架,该框架可生成图形模型(AGM)的无限大集合。 |
1063 |
GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially Private Generators |
为此,我们建议使用梯度消毒的Wasserstein生成对抗网络(GS-WGAN),该网络可以通过严格的隐私保证来释放敏感数据的消毒形式。 |
1064 |
SurVAE Flows: Surjections to Bridge the Gap between VAEs and Flows |
在本文中,我们介绍了SurVAE流:可组合转换的模块化框架,其中包含VAE和规范化流。 |
1065 |
Learning Causal Effects via Weighted Empirical Risk Minimization |
在本文中,我们受益于因果识别理论的普遍性以及基于ERM原理产生的估计量的有效性,我们开发了一个包含两个方法系列的学习框架。 |
1066 |
Revisiting the Sample Complexity of Sparse Spectrum Approximation of Gaussian Processes |
我们为高斯过程引入了一种新的可扩展近似,它具有可证明的保证,同时可在其整个参数空间上保持有效。 |
1067 |
Incorporating Interpretable Output Constraints in Bayesian Neural Networks |
我们介绍了一种具有此类约束的新颖概率框架,并制定了先验条件,使我们能够有效地将它们纳入贝叶斯神经网络(BNN),包括可以按任务摊销的变体。 |
1068 |
在本文中,我们开发了一个多阶段影响函数评分,以跟踪从微调模型一直到预训练数据的预测。 |
|
1069 |
在本文中,我们通过假设概率分配对组成员身份的知识不完善而对此进行了概括,并在具有近似率保证的这种更一般的情况下提出了算法。 |
|
1070 |
Stochastic Segmentation Networks: Modelling Spatially Correlated Aleatoric Uncertainty |
在本文中,我们介绍了随机分割网络(SSN),这是一种有效的概率方法,可使用任何图像分割网络体系结构来模拟不确定性。 |
1071 |
ICE-BeeM: Identifiable Conditional Energy-Based Deep Models Based on Nonlinear ICA |
我们考虑概率模型的可识别性理论,并建立足够的条件,在此条件下,由非常广泛的基于条件能量的模型族学习的表示在函数空间中是唯一的,直到进行简单的转换。 |
1072 |
在本文中,我们从新的角度研究了DPP:分布的属性测试。 |
|
1073 |
基于源自Baddeley的认知理论,我们的CogLTX框架通过训练法官模型来识别关键句子,将其连接起来进行推理,并通过排练和衰减进行多步推理。 |
|
1074 |
f-GAIL: Learning f-Divergence for Generative Adversarial Imitation Learning |
在这项工作中,我们提出了f-GAIL(一种新的生成式对抗模仿学习模型),该模型会自动从f-分歧家族中学习差异度量以及能够产生类似专家行为的政策。 |
1075 |
在本文中,我们为非负函数提供了第一个模型,该模型受益于线性模型的相同优良特性。 |
|
1076 |
在这项工作中,我们提出了一个使用GNN的多源不确定性框架,该框架反映了深度学习和信念/证据理论领域中用于节点分类预测的各种类型的预测不确定性。 |
|
1077 |
ConvBERT: Improving BERT with Span-based Dynamic Convolution |
因此,我们提出了一种新颖的基于跨度的动态卷积,以取代这些自注意力头部来直接对局部依赖性进行建模。 |
1078 |
我们提出了一种使用非常小的数据集(数十个示例的数量级)进行训练的三种机制,并发现原型重构是最有效的。 |
|
1079 |
Breaking the Sample Size Barrier in Model-Based Reinforcement Learning with a Generative Model |
我们假设状态变量为S且行动空间为A,假设访问了生成模型,我们研究了在?折扣的无限水平马尔可夫决策过程(MDP)中采用强化学习的样本效率。 |
1080 |
Walking in the Shadow: A New Perspective on Descent Directions for Constrained Minimization |
在这项工作中,我们试图揭开这些方向上运动对获得约束最小化器的影响的神秘性。 |
1081 |
Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks |
针对此估计问题,我们提出了一种新的方法,将采样和解析近似步骤结合在一起。 |
1082 |
我们提出了一种新的框架,通过利用图表示学习的思想来学习潜在功能。 |
|
1083 |
我们的主要贡献是LoopReg,LoopReg是一种端到端学习框架,用于将扫描语料库注册到常见的3D人体模型。 |
|
1084 |
Fully Dynamic Algorithm for Constrained Submodular Optimization |
我们在完全动态的环境中研究此经典问题,在该环境中元素可以插入和删除。 |
1085 |
Robust Optimal Transport with Applications in Generative Modeling and Domain Adaptation |
在本文中,我们通过推导适用于现代深度学习应用程序的健壮OT优化的高效计算对偶形式来解决这些问题。 |
1086 |
特别是,我们(i)将数据驱动的设计问题形式化为非零和博弈;(ii)开发一种原则性策略,以随着设计算法的进行而对回归模型进行再训练-我们称之为自动聚焦,并且( iii)凭经验证明自动对焦的前景。 |
|
1087 |
Debiasing Averaged Stochastic Gradient Descent to handle missing values |
我们提出了一种处理线性模型中缺失值的平均随机梯度算法。 |
1088 |
Trajectory-wise Multiple Choice Learning for Dynamics Generalization in Reinforcement Learning |
在本文中,我们提出了一种新的基于模型的RL算法,即币种轨迹式多选学习,该算法学习了一种用于动力学泛化的多头动力学模型。 |
1089 |
CompRess: Self-Supervised Learning by Compressing Representations |
在这项工作中,我们没有设计一种新的用于自我监督学习的伪任务,而是开发了一种模型压缩方法,用于将已经学习的深度自我监督模型(教师)压缩为较小的模型(学生)。 |
1090 |
Sample complexity and effective dimension for regression on manifolds |
流形模型出现在各种各样的现代机器学习问题中,我们的目标是帮助理解利用流形结构的各种隐式和显式降维方法的有效性。 |
1091 |
The phase diagram of approximation rates for deep neural networks |
我们探索了深度神经网络的近似速率相图,并证明了一些新的理论结果。 |
1092 |
Timeseries Anomaly Detection using Temporal Hierarchical One-Class Network |
在本文中,我们提出了时间等级一类(THOC)网络,这是一种用于时间序列异常检测的时间一类分类模型。 |
1093 |
EcoLight: Intersection Control in Developing Regions Under Extreme Budget and Network Constraints |
本文介绍了预算有限且网络连接非常差的发展中地区的EcoLight交叉口控制。 |
1094 |
Reconstructing Perceptive Images from Brain Activity by Shape-Semantic GAN |
受视觉特征在皮层中分层表示的理论的启发,我们建议将复杂的视觉信号分解为多级分量,并分别解码每个分量。 |
1095 |
Emergent Complexity and Zero-shot Transfer via Unsupervised Environment Design |
我们提出了无监督环境设计(UED)作为替代范式,其中开发人员为环境提供了未知参数的环境,这些参数用于在有效的可解决环境中自动生成分布。 |
1096 |
在这里,我们提出了一种新的学习方法,该方法允许我们训练高度并行的语音模型,而无需访问分析似然函数。 |
|
1097 |
Simulating a Primary Visual Cortex at the Front of CNNs Improves Robustness to Image Perturbations |
受此观察启发,我们开发了VOneNets,这是一类新型的CNN混合视觉模型。 |
1098 |
Learning from Positive and Unlabeled Data with Arbitrary Positive Shift |
我们的主要见解是,只有否定类的分布才需要固定。 |
1099 |
在这项研究中,我们提出了一个基于深层能量的物理模型,该模型允许采用特定的微分几何结构。 |
|
1100 |
Quantifying Learnability and Describability of Visual Concepts Emerging in Representation Learning |
在本文中,我们特别考虑如何从最先进的聚类方法开始,刻画如何表征由深度神经网络自动发现的视觉分组。 |
1101 |
Self-Learning Transformations for Improving Gaze and Head Redirection |
在本文中,我们提出了一种新颖的人脸图像生成模型,该模型能够在对眼睛凝视和头部朝向角度进行细粒度控制的情况下生成高质量图像。 |
1102 |
Language-Conditioned Imitation Learning for Robot Manipulation Tasks |
基于对人类教学过程的洞察力,我们引入了一种将非结构化自然语言纳入模仿学习的方法。 |
1103 |
在本文中,我们给出了连续时间部分可观察的马尔可夫决策过程(POMDP)的数学描述。 |
|
1104 |
我们描述了一种主动学习的方法:(1)通过利用现代语言模型提供的上下文嵌入空间来显式搜索稀有类,并且(2)包含一个停止规则,一旦我们证明它们出现在目标阈值以下并具有很高的阈值,就会忽略该类可能性。 |
|
1105 |
Grasp Proposal Networks: An End-to-End Solution for Visual Learning of Robotic Grasps |
为此,我们在这项工作中提出了一种新颖的,端到端的¥emph {Grasp Proposal Network(GPNet)},以预测从一个未知摄像机视角观察到的看不见物体的各种6自由度抓取。 |
1106 |
Node Embeddings and Exact Low-Rank Representations of Complex Networks |
在这项工作中,我们证明了Seshadhri等人的结果。与使用的模型紧密相连,而不是复杂网络的低维结构。 |
1107 |
Fictitious Play for Mean Field Games: Continuous Time Analysis and Applications |
在本文中,我们加深了对连续时间虚拟游戏学习算法的分析,以考虑各种有限状态平均场博弈设置(有限视野,$¥伽马$折扣),特别是允许引入其他常见噪声。 |
1108 |
Steering Distortions to Preserve Classes and Neighbors in Supervised Dimensionality Reduction |
本文介绍的监督映射方法称为ClassNeRV,提出了一种原始应力函数,该函数考虑了类注释,并根据虚假邻居和遗漏邻居评估了嵌入质量。 |
1109 |
在这项工作中,我们研究了广泛的超参数化超网络。 |
|
1110 |
Interferobot: aligning an optical interferometer by a reinforcement learning agent |
在这里,我们根据单眼相机获取的干涉条纹图像,训练RL代理对准Mach-Zehnder干涉仪,这是许多光学实验的重要组成部分。 |
1111 |
这项工作引入了一种新的归纳偏差,该偏差是通过将程序综合任务建模为理性沟通而得出的,并从语用学的递归推理模型中得出了见解。 |
|
1112 |
因此,我们提出了“主邻域聚合”(PNA),这是一种将多个聚合器与度标度器结合在一起的新颖体系结构(可概括总和聚合器)。 |
|
1113 |
我们提出了一种基于鲁棒统计领域的鲁棒聚合函数。 |
|
1114 |
在这项工作中,我们提出了一种提高样本质量的新颖方法:在进行模型训练之前,通过实例选择来更改训练数据集。 |
|
1115 |
Linear Disentangled Representations and Unsupervised Action Estimation |
在这项工作中,我们凭经验表明,标准VAE模型中不存在线性解缠结表示,而是需要更改损耗格局来诱导它们。 |
1116 |
在这项工作中,我们解决了一般情况下的视频帧插值问题,在这种情况下,可以在不确定的曝光(和间隔)时间下获取输入帧。 |
|
1117 |
Learning compositional functions via multiplicative weight updates |
本文证明乘性权重更新满足针对合成函数定制的下降引理。 |
1118 |
Sample Complexity of Uniform Convergence for Multicalibration |
在这项工作中,我们解决了多重校准误差,并将其与预测误差解耦。 |
1119 |
Differentiable Neural Architecture Search in Equivalent Space with Exploration Enhancement |
不同的是,本文利用变分图自动编码器将离散的体系结构空间注入到等效的连续潜在空间中,以解决不一致问题。 |
1120 |
The interplay between randomness and structure during learning in RNNs |
我们展示了低维度的任务结构如何导致连通性的低级变化,以及随机初始连通性如何促进学习。 |
1121 |
A Generalized Neural Tangent Kernel Analysis for Two-layer Neural Networks |
在本文中,我们提供了广义的神经正切核分析,并显示了具有权重衰减的嘈杂梯度下降仍然可以表现出“类内核”行为。 |
1122 |
在本文中,我们使用信息论来正式定义两种类型的冗余:¥textit {Representation}和¥textit {相关冗余}。 |
|
1123 |
在此观察结果的基础上,我们介绍了递归rPU-VAE方法。 |
|
1124 |
PC-PG: Policy Cover Directed Exploration for Provable Policy Gradient Learning |
这项工作介绍了POLICY COVER GUIDED POLICY GRADIENT(PC-PG)算法,该算法使用学习的策略组合(策略覆盖)可证明地平衡了探索与开发之间的权衡。 |
1125 |
在这项工作中,我们将最初为2D任务设计的上下文编码层扩展到3D点云方案。 |
|
1126 |
在这项工作中,我们基于置信区间上限和汤普森采样提出了针对潜在匪徒的通用算法。 |
|
1127 |
Is normalization indispensable for training deep neural network? |
在本文中,我们研究了从网络中删除标准化层时会发生的情况,并展示了如何在不使用标准化层且不会降低性能的情况下训练深度神经网络。 |
1128 |
Optimization and Generalization of Shallow Neural Networks with Quadratic Activation Functions |
我们研究了超参数化条件下具有二次激活函数的单层神经网络的优化动力学和泛化性质,其中层宽度m大于输入维d。 |
1129 |
Intra Order-preserving Functions for Calibration of Multi-Class Neural Networks |
在这项工作中,我们旨在学习通用的事后校准功能,该功能可以保留任何深度网络的前k个预测。 |
1130 |
我们建议改用$ c(x,y)=-¥log¥dotp {¥varphi(x)} {¥varphi(y)} $形式的地面成本,其中$¥varphi $是来自地面空间的地图到正矫正子$¥RR ^ r _ + $上,其中$ r¥ll n $。 |
|
1131 |
VarGrad: A Low-Variance Gradient Estimator for Variational Inference |
我们基于带有留一法控制变量的得分函数方法,分析了ELBO的无偏梯度估计器的属性,用于变分推断。 |
1132 |
A Convolutional Auto-Encoder for Haplotype Assembly and Viral Quasispecies Reconstruction |
本文提出了一种基于卷积自动编码器的读取聚类方法,该方法被设计为首先将序列化片段投影到低维空间,然后使用学习的嵌入特征来估计读取起源的概率。 |
1133 |
Promoting Stochasticity for Expressive Policies via a Simple and Efficient Regularization Method |
为了解决这个问题,我们提出了一种新颖的正则化方法,该方法与广泛的表达策略体系结构兼容。 |
1134 |
Adversarial Counterfactual Learning and Evaluation for Recommender System |
通过引入极小极大经验风险公式,我们提出了一种有原则的解决方案。 |
1135 |
Memory-Efficient Learning of Stable Linear Dynamical Systems for Prediction and Control |
我们提出了一种学习稳定LDS的新颖算法。 |
1136 |
归一化层和激活功能是深度网络中的基本组件,通常彼此位于同一位置。在这里,我们建议使用自动化方法来设计它们。 |
|
1137 |
ScaleCom: Scalable Sparsified Gradient Compression for Communication-Efficient Distributed Training |
为了缓解这些问题,我们提出了一种新的压缩技术,即可伸缩稀疏梯度压缩(ScaleComp),该技术(i)利用学习者之间的梯度分布相似性来提供可交换的压缩器,并使通信成本与工作人员人数保持恒定,并且(ii)包括在局部梯度累积中使用低通滤波器,以减轻大批量训练的影响并显着提高可伸缩性。 |
1138 |
RelationNet++: Bridging Visual Representations for Object Detection via Transformer Decoder |
本文提出了一种类似于Transformer~cite {vaswani2017attention}中基于注意力的解码器模块,以端到端的方式将其他表示形式桥接到基于单个表示形式格式的典型对象检测器中。 |
1139 |
在这项工作中,我们提供了第一个基于“交互筛选”框架的示例高效方法,该方法使人们能够以任意基础可靠地学习具有特定于节点的离散字母和多体交互的完全通用离散因子模型。 |
|
1140 |
Near-Optimal SQ Lower Bounds for Agnostically Learning Halfspaces and ReLUs under Gaussian Marginals |
我们研究了在高斯边际下不可知论地学习半空间和ReLU的基本问题。 |
1141 |
我们提出了一种新颖的算法,该算法综合了控制策略,该策略将用于生成通信图的程序化通信策略与用于选择动作的变压器策略网络相结合。 |
|
1142 |
Fairness in Streaming Submodular Maximization: Algorithms and Hardness |
在这项工作中,我们解决了一个问题:是否可以为海量数据集创建合理的摘要? |
1143 |
为了在实践中减轻这些攻击,我们提出了一种便宜的正则化方法,该方法可在DNN中促进这些条件,以及一种不需要重新训练的随机平滑技术。 |
|
1144 |
Fast Adversarial Robustness Certification of Nearest Prototype Classifiers for Arbitrary Seminorms |
我们证明,如果NPC使用由半范数引起的相异性度量,则假设裕度是对抗攻击规模的紧迫下限,并且可以在恒定时间内进行计算-这提供了可在合理时间内计算出的首个对抗鲁棒性证书。 |
1145 |
在本文中,我们将多主体主动感知建模为具有凸集中预测奖励的分散的部分可观察的马尔可夫决策过程(Dec-POMDP)。 |
|
1146 |
A Local Temporal Difference Code for Distributional Reinforcement Learning |
在这里,我们介绍拉普拉斯(Laplace)代码:用于分布增强学习的局部时差代码,具有代表性,功能强大且计算简单。 |
1147 |
在这里,我们开发了一种量子算法,用于在运行时O(D)中从特征上的优化分布进行采样,该运行时间在输入数据的维数D中呈线性。 |
|
1148 |
CaSPR: Learning Canonical Spatiotemporal Point Cloud Representations |
我们提出了CaSPR,这是一种学习以对象为中心的动态移动或演化对象的规范时空点云表示的方法。 |
1149 |
我们介绍了一种称为自动调制器的生成自动编码器的新类别。 |
|
1150 |
Convolutional Tensor-Train LSTM for Spatio-Temporal Learning |
在本文中,我们提出了一个高阶卷积LSTM模型,该模型可以有效地学习这些相关性以及历史的简洁表示。 |
1151 |
我们在Potts模型上引入一个变体,该变体允许一般的分类边际和Ising类型的多元依赖。 |
|
1152 |
Interpretable multi-timescale models for predicting fMRI responses to continuous natural speech |
在这项工作中,我们通过迫使LSTM LM中的各个单元整合特定时间范围内的信息来构造可解释的多时间范围表示。 |
1153 |
为了解决这些应用,我们考虑了公平性考虑了连续时间在线学习问题,并提出了一种基于连续时间效用最大化的新颖框架。 |
|
1154 |
Decentralized TD Tracking with Linear Function Approximation and its Finite-Time Analysis |
本贡献涉及使用具有线性函数逼近的时差(TD)方法的多代理Markov决策过程中的分散策略评估,以实现可伸缩性。 |
1155 |
Understanding Gradient Clipping in Private SGD: A Geometric Perspective |
我们首先演示梯度削波如何防止SGD收敛到固定点。然后,我们对带有梯度裁剪的私人SGD提供了理论分析。 |
1156 |
O(n) Connections are Expressive Enough: Universal Approximability of Sparse Transformers |
在本文中,我们解决了这些问题,并提供了一个捕获现有稀疏注意力模型的统一框架。 |
1157 |
为了学习模型的参数,我们引入了一种傅立叶域黑盒变分推断方法,该方法可以快速识别平滑的潜在结构。 |
|
1158 |
更笼统地说,我们表明层次结构的任何等变图都具有这种形式。 |
|
1159 |
MinMax Methods for Optimal Transport and Beyond: Regularization, Approximation and Numerics |
我们针对与(包括)最佳运输有关的一类优化问题研究MinMax解决方案方法。 |
1160 |
A Discrete Variational Recurrent Topic Model without the Reparametrization Trick |
我们展示了如何使用不依赖于随机反向传播来处理离散变量的神经变分推论来学习具有离散随机变量的神经主题模型(该模型显式地模拟了单词分配的主题)。 |
1161 |
为了解决这些局限性,我们基于归纳图神经网络上的可扩展顺序注意力机制,提出了一种用于计算图优化(GO)的端到端,可转移的深度强化学习方法。 |
|
1162 |
Learning with Operator-valued Kernels in Reproducing Kernel Krein Spaces |
在这项工作中,我们考虑了运算符值的内核,不一定是正定的。 |
1163 |
在本文中,我们建议研究风险敏感型学习方案的泛化性质,其最优性通过优化确定性等值(OCE)描述:我们的一般方案可处理各种已知风险,例如熵风险,均值方差和条件风险特殊情况下的风险价值。 |
|
1164 |
Simplifying Hamiltonian and Lagrangian Neural Networks via Explicit Constraints |
我们介绍了一系列具有挑战性的混沌和扩展体系统,包括具有N $$摆,弹簧耦合,磁场,刚性转子和陀螺仪的系统,以推动当前方法的极限。 |
1165 |
在这里,我们介绍了逐次试错的一致性,这是一种定量分析,用于测量两个决策系统是否在相同输入上系统地犯错。 |
|
1166 |
Provably Efficient Reinforcement Learning with Kernel and Neural Function Approximations |
为解决这一挑战,我们将重点放在以核函数或参数化神经网络表示作用值函数的情景设置中,我们提出了第一种可证明的RL算法,该算法具有多项式运行时间和样本复杂度,而无需对数据生成模型。 |
1167 |
Constant-Expansion Suffices for Compressed Sensing with Generative Priors |
我们的主要贡献是打破了这种强大的扩展性假设,表明¥emph {constant}扩展性足以获得有效的恢复算法,此外它在信息理论上也是必要的。 |
1168 |
在本文中,我们介绍了¥emph {Region Attention Network}(RANet),这是一种用于建模对象区域之间关系的新颖注意力网络。 |
|
1169 |
本文描述了在实际情况下随机傅里叶特征(RFF)回归的精确渐近性,其中数据样本$ n $的数量,维数pp $和特征空间$ N $的维数都很大且具有可比性。 |
|
1170 |
本文的主要贡献是利用结构化随机矩阵上的最新结果,为皮层区域之间的通信提出了一种随机投影的理论神经科学模型,该模型与在神经解剖学中观察到的局部布线约束相一致。 |
|
1171 |
Self-Imitation Learning via Generalized Lower Bound Q-learning |
在这项工作中,我们提出了一个n步下界,该下界概括了原始的基于返回值的下界Q学习,并介绍了一个新的自模仿学习算法系列。 |
1172 |
Private Learning of Halfspaces: Simplifying the Construction and Reducing the Sample Complexity |
我们在有限元网格$ G $ in $¥R ^ d $中提供了一个半私人差分学习器,样本复杂度为$¥approx d ^ {2.5}¥cdot 2 ^ {¥log ^ * | G |} $以$ d ^ 2 $的系数得出[Beimel等人,COLT 2019]的最新结果。 |
1173 |
鉴于随机梯度下降(SGD)通常在训练损失中找到平坦的最小谷这一事实,我们提出了一种新颖的定向修剪方法,该方法在该平坦区域中或附近寻找稀疏的最小化器。 |
|
1174 |
Smoothly Bounding User Contributions in Differential Privacy |
为了在效用和隐私保证之间更好地权衡,我们提出了一种方法,该方法通过在数据点上设置适当的权重来平滑限制用户的贡献,并将其应用于估计均值/分位数,线性回归和经验风险最小化。 |
1175 |
Accelerating Training of Transformer-Based Language Models with Progressive Layer Dropping |
在这项工作中,我们提出了一种基于渐进层删除的方法,该方法可以加快基于Transformer的语言模型的训练,而不会以过多的硬件资源为代价,而是通过模型架构的改变和训练技术的提高效率来进行训练。 |
1176 |
在这种情况下,我们设计了一种多步贪婪RTDP算法,我们将其称为$ h $ -RTDP,该算法用$ h $步骤的超前策略替换了1步贪婪策略。 |
|
1177 |
在这里,我们提出了深度归因先验(DAPr)框架,以利用这些信息来克服归因方法的局限性。 |
|
1178 |
Using noise to probe recurrent neural network structure and prune synapses |
在这里,我们建议噪声可以在突触修剪中发挥功能性作用,使大脑能够探测网络结构并确定哪些突触是多余的。 |
1179 |
NanoFlow: Scalable Normalizing Flows with Sublinear Parameter Complexity |
因此,我们提出了一种有效的参数分解方法和流指示嵌入的概念,它们是使从单个神经网络进行密度估计的关键缺失组件。 |
1180 |
Group Knowledge Transfer: Federated Learning of Large CNNs at the Edge |
我们使用三个不同的数据集(CIFAR-10,CIFAR-100和CINIC-10)及其非IID变体来训练基于ResNet-56和ResNet-110设计的CNN。 |
1181 |
在这项工作中,受纹理图案重复性质的启发,我们发现纹理合成可以在快速傅立叶变换(FFT)域中视为(局部)¥textit {upsampling}。 |
|
1182 |
我们提出了一种新颖的图跨网络(GXN),以从图的多个尺度实现全面的特征学习。 |
|
1183 |
Instance-optimality in differential privacy via approximate inverse sensitivity mechanisms |
我们通过扩展和逼近逆灵敏度机制来研究并提供差分隐私中的实例最优算法。 |
1184 |
Calibration of Shared Equilibria in General Sum Partially Observable Markov Games |
本文旨在:i)正式理解此类行为者所达到的均衡,以及ii)将此类均衡的新兴现象与现实世界的目标相匹配。 |
1185 |
在本文中,我们观察到,与现有的基于模型的RL算法相比,即使没有针对这种模型设计的方法,也可以在离线环境中与无模型方法相比取得显着收益。 |
|
1186 |
Building powerful and equivariant graph neural networks with structural message-passing |
我们解决了这个问题,并基于两个想法提出了一个功能强大且等价的消息传递框架:首先,除了功能以外,我们传播节点的单次热编码,以便学习每个节点周围的局部上下文矩阵。 |
1187 |
Efficient Model-Based Reinforcement Learning through Optimistic Policy Search and Planning |
在本文中,我们提出了一种实用的乐观探索算法(H-UCRL)。 |
1188 |
Practical Low-Rank Communication Compression in Decentralized Deep Learning |
我们介绍了一种简单的算法,该算法使用低秩线性压缩器直接压缩相邻工人之间的模型差异。 |
1189 |
在本文中,我们研究了香草神经体系结构是否存在ME偏倚,表明它们缺乏这种学习假设。 |
|
1190 |
在本文中,我们研究了此问题,并提出了一种基于图表的有效方法来进行多模式形状理解,该方法鼓励了类似的融合视觉和触摸信息。 |
|
1191 |
GradAug: A New Regularization Method for Deep Neural Networks |
我们提出了一种新的正则化方法来缓解深度神经网络中的过拟合问题。 |
1192 |
An Equivalence between Loss Functions and Non-Uniform Sampling in Experience Replay |
我们表明,使用非均匀采样数据评估的任何损失函数都可以转换为具有相同预期梯度的另一个均匀采样损失函数。 |
1193 |
对于学习实用程序,我们给出了样本复杂度的几乎匹配的下限(最多为多对数因子)。 |
|
1194 |
我们考虑具有合理激活函数的神经网络。 |
|
1195 |
我们介绍了DISK(离散关键点),这是一种通过利用强化学习(RL)的原理,为大量正确的特征匹配进行端到端优化而克服这些障碍的新颖方法。 |
|
1196 |
我们提出了一种通过高维$ ell_1 $正则化将知识从源域转移到目标域的方法。 |
|
1197 |
GOCor: Bringing Globally Optimized Correspondence Volumes into Your Neural Network |
我们提出GOCor,一个完全可区分的密集匹配模块,用作特征关联层的直接替代。 |
1198 |
在这项工作中,我们介绍了一类新颖的算法,只需恢复已证明的行为基础的MDP,即可恢复专家策略。 |
|
1199 |
Optimistic Dual Extrapolation for Coherent Non-monotone Variational Inequalities |
在本文中,我们提出了{¥em乐观对偶外推法(OptDE)},该方法每次迭代仅执行{¥em one}个梯度评估。 |
1200 |
在环境为良性并随机产生损失的情况下,我们会用专家的建议重新审视预测的基本问题,但学习者观察到的反馈会受到中等程度的对抗性破坏。 |
|
1201 |
Human Parsing Based Texture Transfer from Single Image to 3D Human via Cross-View Consistency |
本文提出了一种基于人解析的纹理转移模型,该模型通过交叉视图一致性学习从单个图像生成3D人体纹理。 |
1202 |
Knowledge Augmented Deep Neural Networks for Joint Facial Expression and Action Unit Recognition |
本文建议系统地捕获它们的依赖关系,并将其纳入用于联合面部表情识别和动作单元检测的深度学习框架。 |
1203 |
Point process models for sequence detection in high-dimensional neural spike trains |
我们通过开发一个点过程模型来解决这些缺点中的每一个,该模型在单个峰值的水平上表征精细序列并将序列出现表示为连续时间内的少量标记事件。 |
1204 |
在本文中,我们研究了几种攻击情形,并表明恶意代理可以迫使线性上下文强盗算法拉扯任何所需的手臂。o(T)跨T步,同时对奖励或上下文应用对抗性修改,累积成本仅以O(log T)的对数增长。 |
|
1205 |
在这项工作中,我们提出了一种称为MERLIN的持续学习的新方法:持续学习的元合并。 |
|
1206 |
Organizing recurrent network dynamics by task-computation to enable continual learning |
在这里,我们开发了一种新颖的学习规则,旨在最大程度地减少递归网络中顺序学习的任务之间的干扰。 |
1207 |
Lifelong Policy Gradient Learning of Factored Policies for Faster Training Without Forgetting |
我们提供了一种用于终身策略梯度学习的新颖方法,该方法可以直接通过策略梯度来训练终身函数逼近器,从而使代理可以在整个培训过程中受益于积累的知识。 |
1208 |
Kernel Methods Through the Roof: Handling Billions of Points Efficiently |
为此,我们为内核方法设计了预处理梯度求解器,该方法利用GPU加速和与多个GPU的并行化,实现了常见线性代数运算的核外变体,以确保最佳的硬件利用率。 |
1209 |
Spike and slab variational Bayes for high dimensional logistic regression |
我们研究了稀疏高维逻辑回归中广泛使用的贝叶斯模型选择先验的均值峰值和平板VB逼近。 |
1210 |
Maximum-Entropy Adversarial Data Augmentation for Improved Generalization and Robustness |
在本文中,我们提出了一种新颖而有效的对抗性数据增强正则化术语。 |
1211 |
我们提供了标准机器学习框架的扩展,该扩展为CPU和GPU上的这种抽象提供了全面的支持:我们的工具箱将通用,透明的用户界面与快速运行时间和低内存占用结合在一起。 |
|
1212 |
在本文中,我们介绍了一个名为MESA的新型集成IL框架。 |
|
1213 |
我们为多元次高斯数据的参数提供了简单的微分私有估计量,这些参数在小样本量下是准确的。 |
|
1214 |
Planning with General Objective Functions: Going Beyond Total Rewards |
在本文中,基于草绘算法的技术,我们在确定性系统中提出了一种新颖的规划算法,该算法处理形式为$ f(r_1,r_2,…r_H)$的一大类目标函数,这些目标函数对实际应用很有意义。 |
1215 |
Scattering GCN: Overcoming Oversmoothness in Graph Convolutional Networks |
在这里,我们建议通过几何散射变换和残差卷积来增强常规GCN。 |
1216 |
KFC: A Scalable Approximation Algorithm for $k$-center Fair Clustering |
在本文中,我们研究了基于$ k- $ center目标的公平集群问题。 |
1217 |
Leveraging Predictions in Smoothed Online Convex Optimization via Gradient-based Algorithms |
为了解决这个问题,我们引入了一种基于梯度的在线算法,即后视地平线不精确梯度(RHIG),并根据环境的时间变化和预测误差通过动态后悔来分析其性能。 |
1218 |
Learning the Linear Quadratic Regulator from Nonlinear Observations |
我们引入了一种新的算法RichID,该算法通过仅对潜在状态空间的维数和解码器函数类的容量进行采样复杂度缩放,来学习RichLQR的近似最优策略。 |
1219 |
Reconciling Modern Deep Learning with Traditional Optimization Analyses: The Intrinsic Learning Rate |
本文着重介绍了归一化网络行为偏离传统观点的其他方式,然后通过对传统框架的适当适应而建立了一个正式的框架来研究其数学,即通过适当的随机微分方程(SDE)对SGD诱导的训练轨迹进行建模。 ),其中包含捕获梯度噪声的噪声项。 |
1220 |
Scalable Graph Neural Networks via Bidirectional Propagation |
在本文中,我们提出了GBP,这是一种可扩展的GNN,它利用了来自特征向量和训练/测试节点的局部双向传播过程。 |
1221 |
Distribution Aligning Refinery of Pseudo-label for Imbalanced Semi-supervised Learning |
为了缓解此问题,我们提出了一个凸优化问题,以软化从偏差模型生成的伪标签,并开发了一种简单的算法,即伪标签的分布对齐精炼厂(DARP),可以有效地解决该问题。 |
1222 |
Assisted Learning: A Framework for Multi-Organization Learning |
在这项工作中,我们为组织引入了辅助学习框架,以在没有公开任何组织的算法,数据甚至任务的情况下互相协助进行有监督的学习任务。 |
1223 |
我们通过检查SLOPE的亚微分方法来开发筛选规则,并证明该规则是套索的强规则的概括。 |
|
1224 |
STLnet: Signal Temporal Logic Enforced Multivariate Recurrent Neural Networks |
在本文中,我们开发了一个新的基于时间逻辑的学习框架STLnet,该模型以模型属性的辅助知识指导RNN学习过程,并为改进的未来预测提供了更健壮的模型。 |
1225 |
Election Coding for Distributed Learning: Protecting SignSGD against Byzantine Attacks |
本文提出了一种Election Coding,这是一种编码理论框架,可确保基于有符号随机梯度下降(SignSGD)的分布式学习算法的拜占庭鲁棒性,从而最大程度地减少了工人与主人之间的沟通负担。 |
1226 |
Reducing Adversarially Robust Learning to Non-Robust PAC Learning |
我们研究了将对抗性鲁棒性学习减少为标准PAC学习的问题,即仅使用黑匣子非鲁棒性学习者来学习对抗性鲁棒性预测因子的复杂性。 |
1227 |
Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad Samples |
我们对生成对抗网络(GAN)训练算法进行了简单的修改(一行代码),从而在不增加计算成本的情况下实质性地改善了结果。 |
1228 |
我们提出了一种新的方法,用于使用可微局部代理模型对黑盒模拟器进行基于梯度的优化。 |
|
1229 |
Efficient Generation of Structured Objects with Constrained Adversarial Networks |
作为一种补救措施,我们提出了约束对抗网络(Constrained Adversarial Networks,CAN),它是GAN的扩展,在训练过程中将约束条件嵌入模型中。 |
1230 |
Hard Example Generation by Texture Synthesis for Cross-domain Shape Similarity Learning |
在本文中,我们确定了性能不佳的根源,并提出了解决此问题的实用方法。 |
1231 |
Recovery of sparse linear classifiers from mixture of responses |
我们来看一个迄今为止尚未研究的查询复杂度上限,即恢复所有超平面的问题,特别是在超平面稀疏的情况下。 |
1232 |
Efficient Distance Approximation for Structured High-Dimensional Distributions via Learning |
具体来说,我们提出了以下问题的算法(其中dTV是总变化距离):给定样本通过已知的有n个节点且有界度近似dTV(P1)的有向无环图G1和G2进入两个贝叶斯网络P1和P2 ,P2)到加法误差之内?使用poly(n,1 /?)样本和时间。 |
1233 |
A Single Recipe for Online Submodular Maximization with Adversarial or Stochastic Constraints |
在本文中,我们考虑了奖励函数为DR次模的在线优化问题,除了最大化总奖励外,决策序列还必须平均满足一些凸约束。 |
1234 |
在本文中,我们提出了一种新颖的生成模型,该模型可以自动学习稀疏的原型支持集,尽管如此,该支持集仍可实现强大的语言建模性能。 |
|
1235 |
在这项工作中,通过依赖多层线性网络中的梯度下降学习导致最小秩解的事实,隐式最小化了代码的协方差矩阵的秩。 |
|
1236 |
Storage Efficient and Dynamic Flexible Runtime Channel Pruning via Deep Reinforcement Learning |
在本文中,我们提出了一种基于深度强化学习(DRL)的框架,以在卷积神经网络(CNN)上有效地执行运行时通道修剪。 |
1237 |
在本文中,我们提出了一种新颖的提炼方法,称为面向任务的特征提炼(TOFD),其中转换是卷积层,这些卷积层以数据驱动方式由任务丢失进行训练。 |
|
1238 |
Entropic Causal Inference: Identifiability and Finite Sample Results |
在本文中,我们证明了他们的猜想的一种变体。也就是说,我们表明,对于几乎所有因果模型,其中外生变量具有与观察变量的状态数不成比例的熵,可以从观察数据中确定因果方向。 |
1239 |
Rewriting History with Inverse RL: Hindsight Inference for Policy Improvement |
在本文中,我们证明了逆向RL是一种重用跨任务经验的原则性机制。 |
1240 |
Variance-Reduced Off-Policy TDC Learning: Non-Asymptotic Convergence Analysis |
在这项工作中,我们为非政策环境中的两个时标TDC算法开发了方差减少方案,并分析了iid¥和Markovian样本的非渐近收敛速度。 |
1241 |
在本文中,我们提出了一种称为AdaTune的新方法,该方法可显着减少用于高性能深度学习推理的张量程序的优化时间。 |
|
1242 |
基于这些结果,我们提出了尖峰协变量模型,该模型可以在统一框架中捕获早期工作中观察到的两种行为。 |
|
1243 |
在本文中,我们提出了一种新的正则化技术:在训练过程中随机采样ODE的结束时间。 |
|
1244 |
A Variational Approach for Learning from Positive and Unlabeled Data |
在本文中,我们介绍了一种用于PU学习的变分原理,该原理使我们能够直接从给定数据中定量评估贝叶斯分类器的建模误差。 |
1245 |
Efficient Clustering Based On A Unified View Of $K$-means And Ratio-cut |
首先,重新讨论了k均值和比率削减的统一框架,然后提出了一种基于该框架的新颖高效的聚类算法。 |
1246 |
Recurrent Switching Dynamical Systems Models for Multiple Interacting Neural Populations |
为了应对这一挑战,我们为多个人群开发了循环切换线性动力学系统模型。 |
1247 |
Coresets via Bilevel Optimization for Continual Learning and Streaming |
在这项工作中,我们通过基数约束的双层优化提出了一种新颖的核心集构造。 |
1248 |
Generalized Independent Noise Condition for Estimating Latent Variable Causal Graphs |
为此,在本文中,我们考虑了线性,非高斯潜在变量模型(LiNGLaMs),其中潜在混杂因素也有因果关系,并提出了广义独立噪声(GIN)条件来估计此类潜在变量图。 |
1249 |
Understanding and Exploring the Network with Stochastic Architectures |
在这项工作中,我们将网络训练与具有随机架构(NSA)的网络从NAS分离开来,并作为一个独立的问题对其进行首次系统研究。 |
1250 |
All-or-nothing statistical and computational phase transitions in sparse spiked matrix estimation |
我们证明了尖峰和观测到的噪声矩阵之间渐近互信息的显式低维变分公式,并分析了稀疏状态下的近似消息传递算法。 |
1251 |
在本文中,我们提出了一种训练非贝叶斯神经网络以估计连续目标及其相关证据的新颖方法,以了解无意识和认知不确定性。 |
|
1252 |
Analytical Probability Distributions and Exact Expectation-Maximization for Deep Generative Networks |
我们利用现代DGN的连续分段仿射属性来推导其后分布和边缘分布以及后者的前两个时刻。 |
1253 |
我们使用单一的统一解决方案贝叶斯伪核心集(这是合成“伪数据”的一小部分加权集合)以及选择伪数据和权重的变分优化方法来解决这两个问题。 |
|
1254 |
在本文中,我们介绍了一种好奇心的替代形式,该形式奖励不同感官之间的新型联想。 |
|
1255 |
Adversarial Training is a Form of Data-dependent Operator Norm Regularization |
我们为深层神经网络在对抗训练和算子规范化之间建立了理论联系。 |
1256 |
A Biologically Plausible Neural Network for Slow Feature Analysis |
在这项工作中,从SFA目标开始,我们推导了一种称为Bio-SFA的SFA算法,该算法具有生物学上可行的神经网络实现。 |
1257 |
本文提出了新的算法来解决特征稀疏约束的PCA问题(FSPCA),该算法同时执行特征选择和PCA。 |
|
1258 |
Online Adaptation for Consistent Mesh Reconstruction in the Wild |
本文提出了一种从野外视频中重建可变形对象实例的时间一致3D网格的算法。 |
1259 |
我们考虑动态在线学习的问题,即学习者在多个回合中与有状态环境进行交互。 |
|
1260 |
Learning to Select Best Forecast Tasks for Clinical Outcome Prediction |
为了应对这一挑战,我们提出了一种从大量辅助任务中自动选择的方法,该辅助任务会产生对目标任务最有用的表示形式。 |
1261 |
Stochastic Optimization with Heavy-Tailed Noise via Accelerated Gradient Clipping |
在本文中,我们提出了一种新的加速随机一阶方法,称为Clipped-SSTM,用于在随机梯度中具有重尾分布噪声的平滑凸型随机优化问题,并推导了该方法的第一个高概率复杂度界线,从而弥补了理论上的空白重尾噪声的随机优化方法。 |
1262 |
Adaptive Experimental Design with Temporal Interference: A Maximum Likelihood Approach |
值得注意的是,在我们的环境中,我们使用了通过Poisson方程对Markov链进行经典mar分析的新颖应用,从而通过简洁的凸优化问题来表征有效的设计。 |
1263 |
From Trees to Continuous Embeddings and Back: Hyperbolic Hierarchical Clustering |
在这项工作中,我们提供了可证明的质量保证的Dasgupta离散优化问题的首次连续松弛。 |
1264 |
可变自动编码器(VAE)是否始终编码从其解码器生成的典型样本?本文表明,对这个问题可能令人惊讶的答案是“否”。(经过名义训练的)VAE不一定会摊销能够生成的典型样本的推论。 |
|
1265 |
在这项工作中,我们开发了内核密度估计技巧,以量化捕获不相关程度的公平性度量。 |
|
1266 |
A Randomized Algorithm to Reduce the Support of Discrete Measures |
我们通过负圆锥给出了重心的简单几何特征,并推导了一种通过“贪婪几何采样”计算此新度量的随机算法。 |
1267 |
在本文中,我们研究了通过周期性平均和自适应采样来实现分布式鲁棒联邦学习的高效通信分布式算法。 |
|
1268 |
Sharp uniform convergence bounds through empirical centralization |
我们介绍了使用经验集中化来从他们的期望中得出新的实用的,概率的,依赖样本的界线,这些界线是家庭中功能性经验手段的最高偏差(SD)的上限。 |
1269 |
COBE: Contextualized Object Embeddings from Narrated Instructional Video |
我们提出了一个新的框架,用于从教学视频的自动转录叙事中学习情境化对象嵌入(COBE),而不是依赖此任务的手动标记数据。 |
1270 |
Knowledge Transfer in Multi-Task Deep Reinforcement Learning for Continuous Control |
在本文中,我们提出了一种基于知识转移的多任务深度强化学习框架(KTM-DRL),用于持续控制,该框架使单个DRL代理可以通过向任务特定的老师学习,在多个不同的任务中达到专家级的性能。 |
1271 |
我们对宽泛的神经网络和核方法之间的对应关系进行了仔细,彻底和大规模的实证研究。 |
|
1272 |
我们介绍了超级蒙版叠加(SupSup)模型,该模型能够顺序学习数千个任务,而不会造成灾难性的遗忘。 |
|
1273 |
Nonasymptotic Guarantees for Spiked Matrix Recovery with Generative Priors |
在这项工作中,我们研究了一种替代的先验方法,其中低等级成分在经过训练的生成网络范围内。 |
1274 |
Almost Optimal Model-Free Reinforcement Learningvia Reference-Advantage Decomposition |
我们提出了一种无模型算法UCB-ADVANTAGE,并证明它达到了¥tilde {O}(¥sqrt {H ^ 2 SAT})的遗憾,其中T = KH,K是要播放的剧集数。 |
1275 |
考虑到人类通常会提供激励因素来影响他人的行为,我们建议使用学习的激励函数,在多主体环境中为每个RL主体配备直接给予其他主体奖励的能力。 |
|
1276 |
Displacement-Invariant Matching Cost Learning for Accurate Optical Flow Estimation |
本文提出了一种新颖的解决方案,该解决方案能够绕开构建5D特征量的要求,同时仍然允许网络从数据中学习合适的匹配成本。 |
1277 |
Distributionally Robust Local Non-parametric Conditional Estimation |
为了缓解这些问题,我们提出了一种新的分布稳健估计器,该模型通过将Wasserstein模糊度集中所有对抗性分布的最坏情况有条件预期损失最小化来生成非参数局部估计。 |
1278 |
Robust Multi-Object Matching via Iterative Reweighting of the Graph Connection Laplacian |
我们提出了一种有效且鲁棒的迭代解决方案来解决多对象匹配问题。 |
1279 |
Meta-Gradient Reinforcement Learning with an Objective Discovered Online |
在这项工作中,我们提出了一种基于元梯度下降的算法,该算法仅通过与环境的交互体验即可发现其目标,并通过深度神经网络对其进行灵活参数化。 |
1280 |
我们针对在策略上试图¥ emph {game}部署的分类器的代理反复学习线性分类器的问题,并且我们使用¥ emph {Stackelberg遗憾}来衡量算法的性能。 |
|
1281 |
Upper Confidence Primal-Dual Reinforcement Learning for CMDP with Adversarial Loss |
在这项工作中,我们提出了一种新的¥emph {upper confidence primal-dual}算法,该算法仅需要从过渡模型中采样的轨迹即可。 |
1282 |
我们对导致失准的因素进行了全面的分析,并利用我们从中收集的见解来证明经验上出色的散焦性能。 |
|
1283 |
我们提出了一个更通用的框架,通过考虑所连接网络的权重置换来研究对称性对景观连通性的影响。 |
|
1284 |
Information Theoretic Regret Bounds for Online Nonlinear Control |
这项工作研究了未知的非线性动力学系统中的顺序控制问题,在该系统中,我们将基础系统动力学建模为已知的再生内核希尔伯特空间中的未知函数。 |
1285 |
在本文中,我们提出了准独立性的非参数统计检验。 |
|
1286 |
我们提出了一种新颖的方法,称为策略空间中的一阶约束优化(FOCOPS),该方法可以最大化代理的总体回报,同时确保代理满足一组成本约束。 |
|
1287 |
受最近学习增强型在线算法工作的启发,我们提出了一种算法,该算法以黑盒方式合并了预测,如果准确性很高,则其性能优于任何在线算法,但如果预测非常不准确,则可保持可证明的保证。 |
|
1288 |
Exploiting MMD and Sinkhorn Divergences for Fair and Transferable Representation Learning |
在这项工作中,我们根据人口比例衡量公平性。 |
1289 |
Deep Rao-Blackwellised Particle Filters for Time Series Forecasting |
我们提出了一个蒙特卡洛目标,该目标通过以闭式形式计算适当的条件期望值以及类似于最佳建议分布分解的合适建议分布来利用条件线性。 |
1290 |
在本文中,我们提供了经验和理论证据,表明随机梯度中噪声的重尾分布是SGD性能不佳的原因之一。 |
|
1291 |
受到基于稀疏编码的图像恢复模型中稀疏表示的鲁棒性和效率的启发,我们研究了深度网络中神经元的稀疏性。 |
|
1292 |
Boosting First-Order Methods by Shifting Objective: New Schemes with Faster Worst-Case Rates |
我们提出了一种新的方法来设计无约束的强凸问题的一阶方法。 |
1293 |
在本文中,我们研究了一个具有基数约束的鲁棒序列次模最大化的新问题。 |
|
1294 |
在这项工作中,我们建议通过解决一个混合整数线性规划问题来证明一般分段线性神经网络的单调性。 |
|
1295 |
System Identification with Biophysical Constraints: A Circuit Model of the Inner Retina |
在这里,我们介绍内部视网膜的时间处理的计算模型,包括抑制性反馈电路和现实的突触释放机制。 |
1296 |
Efficient Algorithms for Device Placement of DNN Graph Operators |
在本文中,我们确定并隔离了DNN运算符的设备放置核心的结构优化问题,无论是推理还是训练,尤其是在现代流水线设置中。 |
1297 |
Active Invariant Causal Prediction: Experiment Selection through Stability |
在这项工作中,我们提出了一个基于不变因果预测(ICP)的新的主动学习(即实验选择)框架(A-ICP)(Peters et al。2016)。 |
1298 |
本文开发了一种直接作用于原始字符串的贝叶斯优化(BO)方法,提出了BO循环中字符串内核和遗传算法的首次使用。 |
|
1299 |
Model Interpretability through the lens of Computational Complexity |
通过研究民俗学可解释性主张是否与计算复杂性理论相关,我们朝着这一理论迈出了一步。 |
1300 |
Markovian Score Climbing: Variational Inference with KL(p||q) |
本文开发了一种简单的算法,该算法使用具有消失偏差的随机梯度来可靠地最小化包含性KL。 |
1301 |
Improved Analysis of Clipping Algorithms for Non-convex Optimization |
在本文中,我们通过提出一个研究削波算法的通用框架来弥补差距,该框架还考虑了动量法。 |
1302 |
Bias no more: high-probability data-dependent regret bounds for adversarial bandits and MDPs |
我们开发了一种新的方法来获得在线学习的高概率后悔界限,并针对适应性对手对匪徒进行反馈。 |
1303 |
A Ranking-based, Balanced Loss Function Unifying Classification and Localisation in Object Detection |
我们提出了平均定位召回精度(aLRP),这是一种统一,有界,平衡和基于排名的损失函数,用于对象检测中的分类和本地化任务。 |
1304 |
StratLearner: Learning a Strategy for Misinformation Prevention in Social Networks |
在本文中,我们考虑了这种情况,并研究了防止错误信息的问题。 |
1305 |
A Unified Switching System Perspective and Convergence Analysis of Q-Learning Algorithms |
本文开发了一个新颖且统一的框架,以从交换系统的角度分析大量Q学习算法的收敛性。 |
1306 |
Kernel Alignment Risk Estimator: Risk Prediction from Training Data |
我们研究了岭K> 0和iid观测值的内核K的内核岭回归(KRR)的风险(即泛化误差)。 |
1307 |
我们提出了一种用于卷积神经网络(CNN)的终身/持续学习方法,当从一项任务转移到另一项任务时,它不会遭受灾难性遗忘的困扰。 |
|
1308 |
这项工作研究了Erd¥H {o} sR¥'enyi随机网络上的节点到节点通信如何影响分布式在线凸优化,这对于在不利或变化的环境中解决大规模机器学习至关重要。 |
|
1309 |
Robustness of Bayesian Neural Networks to Gradient-Based Attacks |
在本文中,我们分析了贝叶斯神经网络(BNN)的大数据,超参数化限制中的对抗攻击的几何形状。 |
1310 |
Parametric Instance Classification for Unsupervised Visual Feature learning |
本文提出了用于无监督视觉特征学习的参数实例分类(PIC)。 |
1311 |
在这项工作中,我们提出了一种新颖的CNN训练算法,称为稀疏体重激活训练(SWAT)。 |
|
1312 |
Collapsing Bandits and Their Application to Public Health Intervention |
我们提出并研究了Collapsing Bandits,这是一种新的躁动多臂匪徒(RMAB)场景,其中的每个手臂都遵循具有特殊结构的二元状态马尔可夫过程:当播放手臂时,状态会被完全观察,从而“崩溃”任何不确定性,但是当机械臂处于被动状态时,不会进行观察,因此不确定性会不断演变。 |
1313 |
在这项工作中,我们介绍了神经稀疏体素字段(NSVF),这是一种用于快速,高质量的自由视点渲染的新神经场景表示。 |
|
1314 |
A Flexible Framework for Designing Trainable Priors with Adaptive Smoothing and Game Encoding |
我们介绍了一个设计和训练神经网络层的通用框架,该神经网络层的前向通过可以解释为解决非光滑凸优化问题,其体系结构是从优化算法得出的。 |
1315 |
考虑到这些缺点,我们在差分隐私的背景下介绍并分析了离散的高斯分布。 |
|
1316 |
Robust Sub-Gaussian Principal Component Analysis and Width-Independent Schatten Packing |
我们为以下基本统计任务开发了两种方法:从$ d维次亚高斯分布给出给定$ epseps的一组$ n $样本,返回协方差矩阵的近似顶部特征向量。 |
1317 |
Adaptive Importance Sampling for Finite-Sum Optimization and Sampling with Decreasing Step-Sizes |
在这项工作中,我们在此框架的基础上,提出了一种简单有效的自适应重要性采样算法,用于有限和优化和步长减小的采样。 |
1318 |
Learning efficient task-dependent representations with synaptic plasticity |
在这里,我们构建了一个随机的递归神经回路模型,该模型可以使用一种新型的奖励调制的Hebbian突触可塑性来学习有效的,针对特定任务的感觉代码。 |
1319 |
我们为大数据统计中的贝叶斯学习提出了一种自适应加权随机梯度兰格文动力学算法(SGLD),即所谓的轮廓随机梯度兰文文动力学(CSGLD)。 |
|
1320 |
在本文中,我们首先通过行为克隆和生成对抗模型这两种模仿方法来分析专家政策与模仿政策之间的价值差距。 |
|
1321 |
Disentangling Human Error from Ground Truth in Segmentation of Medical Images |
在这项工作中,我们提出了一种方法,可以使用两个耦合的CNN,仅从纯噪声的观测值中共同学习单个注释器的可靠性和真实的分段标签分布。 |
1322 |
本文的贡献如下:1)我们提出了一个不完整的委托人—来自人工智能的代理问题的新模型; 2。2)我们提供了必要和充分的条件,在这些条件下,针对任何不完整的代理目标进行无限优化会导致总体效用任意降低;和3)我们展示了如何修改设置以允许引用完整状态的奖励功能或允许委托人随着时间的推移更新代理目标,从而可以带来更高的效用解决方案。 |
|
1323 |
Promoting Coordination through Policy Regularization in Multi-Agent Deep Reinforcement Learning |
我们提出两种策略规范化方法:TeamReg(基于代理之间的行为可预测性)和CoachReg(基于同步行为选择)。 |
1324 |
Emergent Reciprocity and Team Formation from Randomized Uncertain Social Preferences |
在这项工作中,当培训具有随机不确定的社会偏好(RUSP)的代理人时,我们展示了直接对等,间接对等和声誉以及团队形成的证据,这是一种新颖的环境扩展,可以扩大代理人所处环境的分布。 |
1325 |
Hitting the High Notes: Subset Selection for Maximizing Expected Order Statistics |
我们考虑了从$ n $随机变量中选择$ k $的基本问题,即期望的最高值或第二高值被最大化。 |
1326 |
Towards Scale-Invariant Graph-related Problem Solving by Iterative Homogeneous GNNs |
从综合图论程序的角度来看,我们提出了一些扩展来解决这个问题。 |
1327 |
Regret Bounds without Lipschitz Continuity: Online Learning with Relative-Lipschitz Losses |
在这项工作中,我们考虑OCO的相对Lipschitz和相对强凸函数。 |
1328 |
在这项工作中,我们结合这些观察结果来评估在预训练的BERT模型中是否存在这种可训练的,可转移的子网。 |
|
1329 |
Label-Aware Neural Tangent Kernel: Toward Better Generalization and Local Elasticity |
在本文中,我们从¥emph {label-awareness}的角度介绍了一种新颖的方法,以缩小NTK的这种差距。 |
1330 |
Beyond Perturbations: Learning Guarantees with Arbitrary Adversarial Test Examples |
我们提出了一种推导式学习算法,该算法将分布P和任意(未标记)测试示例(可能由对手选择)中的训练示例作为输入。 |
1331 |
AdvFlow: Inconspicuous Black-box Adversarial Attacks using Normalizing Flows |
在本文中,我们介绍了AdvFlow:一种针对图像分类器的新型黑匣子对抗攻击方法,该方法利用归一化流的功能对给定目标图像周围的对抗示例进行密度建模。 |
1332 |
至关重要的是,我们在调整过程中调整权重的变化,以便在保留目标的同时最好地保留源数据集的信息。 |
|
1333 |
On the Expressiveness of Approximate Inference in Bayesian Neural Networks |
我们研究了近似贝叶斯预测分布的常用变分方法的质量。 |
1334 |
Non-Crossing Quantile Regression for Distributional Reinforcement Learning |
为了解决这些问题,我们通过使用非交叉分位数回归来引入通用DRL框架,以确保每个采样批次内的单调性约束,可以将其与任何众所周知的DRL算法结合使用。 |
1335 |
Dark Experience for General Continual Learning: a Strong, Simple Baseline |
我们通过将演练与知识提炼和规范化相结合来解决这一问题;我们的简单基准“黑暗体验重播”与整个优化轨迹中采样的网络对数相匹配,从而促进了与过去的一致性。 |
1336 |
Learning to Utilize Shaping Rewards: A New Approach of Reward Shaping |
在本文中,我们考虑了自适应利用给定的成形奖励函数的问题。 |
1337 |
使用来自一大批正在观看电影的人类受试者的并发眼动跟踪和功能性磁共振成像(fMRI)记录,我们首先证明以注视掩盖的形式利用凝视信息可以显着提高神经编码中的脑反应预测准确性模型。 |
|
1338 |
On the linearity of large non-linear models: when and why the tangent kernel is constant |
这项工作的目的是阐明某些神经网络的宽度趋于无穷大的“线性过渡”的显着现象。 |
1339 |
PLLay: Efficient Topological Layer based on Persistent Landscapes |
在这项工作中,对于具有任意过滤的一般持久性同源性,我们展示了层输入的可区分性。 |
1340 |
受分散式机器学习方法的启发,我们提出了一种协同贝叶斯学习算法,该算法采用非凸环境中的分散式Langevin动力学形式。 |
|
1341 |
Shared Space Transfer Learning for analyzing multi-site fMRI data |
本文提出了共享空间转移学习(SSTL)作为一种新颖的转移学习(TL)方法,该方法可以在功能上对齐同类多站点fMRI数据集,从而提高每个站点的预测性能。 |
1342 |
在本文中,我们通过构造所谓的多元化集成层以将多个网络组合为单个模块来提出一种有原则的集成技术。 |
|
1343 |
我们从重新设计原始的量化宽松问题开始,以便进行归纳。在此过程中,我们还强调了该解决方案的一些有趣的解析和几何属性,并利用它们来设计更快的训练方案。 |
|
1344 |
本文研究了从要删除的一小部分训练数据中近似取消学习贝叶斯模型的问题。 |
|
1345 |
我们研究了MAB中的固定预算和固定置信度变量,并提出了算法并证明了不可能的结果,这些结果共同导致了总撤军次数与政策变更次数之间的几乎紧密的权衡。 |
|
1346 |
基于此观察结果,我们提出了一种新的正则化方法GradAlign,该方法通过显着最大化扰动集中的梯度对齐来防止灾难性的过度拟合,并提高了FGSM解决方案的质量。 |
|
1347 |
Coded Sequential Matrix Multiplication For Straggler Mitigation |
在这项工作中,我们考虑了一系列$ J $矩阵乘法作业,这些作业需要由主服务器分配给多个工作节点。 |
1348 |
Attack of the Tails: Yes, You Really Can Backdoor Federated Learning |
文献中已经介绍了一系列FL后门攻击,也介绍了防御它们的方法,当前是否可以定制FL系统以使其对后门具有鲁棒性仍是一个悬而未决的问题。在这项工作中,我们提供了相反的证据。 |
1349 |
Certifiably Adversarially Robust Detection of Out-of-Distribution Data |
在本文中,我们的目标是通过不仅在OOD点上实施低置信度,而且在其周围的$ l_¥infty $球中实施针对OOD检测的可证明的最坏情况保证。 |
1350 |
为了确保学习特征的条件不变性,我们提出了一个熵正则化项,用于测量学习特征与类标签之间的依赖性。 |
|
1351 |
Bayesian Meta-Learning for the Few-Shot Setting via Deep Kernels |
在认识到元学习正在多层次模型中实现学习之后,我们提出了通过使用深核对贝叶斯元学习内部循环的处理。 |
1352 |
Skeleton-bridged Point Completion: From Global Inference to Local Adjustment |
为此,我们提出了一个骨架桥接点完成网络(SK-PCN)用于形状完成。 |
1353 |
Compressing Images by Encoding Their Latent Representations with Relative Entropy Coding |
作为替代方案,我们提出了一种新颖的方法,相对熵编码(REC),该编码方法可以直接编码与单个图像的相对熵接近的码长的潜在表示,并得到在Cifar10,ImageNet32和Kodak数据集上获得的经验结果的支持。 |
1354 |
在本文中,我们研究了经典k均值聚类问题的两种最受欢迎的算法k-means ++和k-means ||。 |
|
1355 |
Sparse Spectrum Warped Input Measures for Nonstationary Kernel Learning |
我们建立了一种显式的,依赖于输入,量度值的变形的一般形式,用于学习非平稳核。 |
1356 |
我们研究了对基于树的集合(例如梯度增强决策树(GBDT)和随机森林(RF))进行有效的对抗攻击的问题。 |
|
1357 |
Learning Continuous System Dynamics from Irregularly-Sampled Partial Observations |
为了解决上述挑战,我们提出了LG-ODE,这是一个潜在的常微分方程生成模型,用于以已知的图结构建模多主体动态系统。 |
1358 |
在本文中,我们通过一个在线学习框架放松了这一假设,在该框架中,发件人面对类型未知的收件人。 |
|
1359 |
最近的工作表明,与对抗性训练相结合时,自我监督的预训练可以带来最先进的鲁棒性。在这项工作中,我们通过学习一致的表示来改善对鲁棒性的自我监督的预训练在数据扩充和对抗性扰动下 |
|
1360 |
在本文中,我们为图结构化数据提出了一种更加直观和透明的架构,即所谓的随机游动图神经网络(RWNN)。 |
|
1361 |
为克服此失败,我们研究了双步超梯度算法,其中探索步骤与更新步骤相比在更积极的时间尺度上发展。 |
|
1362 |
在本文中,我们为$ k $ -means ++种子提出了一种近似线性的时间算法。 |
|
1363 |
在本文中,我们提出了一种用于非模态完成的变体生成框架,称为AMODAL-VAE,该框架在训练时不需要任何非模态标签,因为它能够利用广泛使用的对象实例蒙版。 |
|
1364 |
在本文中,我们提出了一个基于增强学习的系统,名为FolkDuet,用于中国民间旋律的在线反旋律生成。 |
|
1365 |
Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search Spaces |
为此,我们提出了一种新颖的BO算法,该算法基于对¥emph {hyperharmonic series}的扩展率进行控制,从而在迭代过程中扩展(并移动)搜索空间。 |
1366 |
我们提出了一种可以处理任意类别转移的更普遍适用的域自适应方法,称为通过熵优化(DANCE)的域自适应邻域聚类。 |
|
1367 |
Patch2Self: Denoising Diffusion MRI with Self-Supervised Learning? |
我们引入了一种用于对DWI数据进行去噪的自我监督学习方法Patch2Self,该方法使用整个卷来学习该卷的全秩局部线性去噪器。 |
1368 |
在本文中,我们通过重构广泛使用的批标准化(BN)模块来减轻过度拟合,从而采取一种替代方法。 |
|
1369 |
Constrained episodic reinforcement learning in concave-convex and knapsack settings |
我们提出了一种用于带约束的表格式情景强化学习的算法。 |
1370 |
在这样的设置中,我们旨在在高维缩放中设计统计上最优的估计量,其中节点数p,边数k和最大节点度d被允许根据样本大小增加到无穷大。 。 |
|
1371 |
这项工作为学习算法上的弱稳定性条件下的交叉验证和渐近方差的一致估计建立了中心极限定理。 |
|
1372 |
DeepSVG: A Hierarchical Generative Network for Vector Graphics Animation |
在这项工作中,我们提出了一种新颖的分层生成网络,称为DeepSVG,用于复杂的SVG图标生成和插值。 |
1373 |
在本文中,我们提出了一种易于实施和优化的注意力的可扩展随机版本。 |
|
1374 |
Robustness Analysis of Non-Convex Stochastic Gradient Descent using Biased Expectations |
这项工作提出了一种用于非凸和平滑优化的随机梯度下降(SGD)的新颖分析方法。 |
1375 |
SoftFlow: Probabilistic Framework for Normalizing Flow on Manifolds |
在本文中,我们提出了SoftFlow,这是一种用于训练流形上的规范化流量的概率框架。 |
1376 |
在这里,我们提出了一种使用元学习来发现合理的突触可塑性规则的替代方法。 |
|
1377 |
Greedy Optimization Provably Wins the Lottery: Logarithmic Number of Winning Tickets is Enough |
本文提出了一种基于贪婪优化的修剪方法,为这一问题提供了一个答案。 |
1378 |
Path Integral Based Convolution and Pooling for Graph Neural Networks |
借鉴物理学的思想,我们提出了一种基于路径积分的图神经网络(PAN),用于图的分类和回归任务。 |
1379 |
Estimating the Effects of Continuous-valued Interventions using Generative Adversarial Networks |
在本文中,我们通过修改生成对抗网络(GAN)框架来解决此问题。 |
1380 |
Latent Dynamic Factor Analysis of High-Dimensional Neural Recordings |
我们设计并实现了一种新方法,即高维时间序列的潜在动态因子分析(LDFA-H),该方法结合了(a)一种新的方法来估计高维时间序列之间的协方差结构(用于观测变量),并且(b)将概率CCA扩展到动态时间序列(针对潜在变量)。 |
1381 |
Conditioning and Processing: Techniques to Improve Information-Theoretic Generalization Bounds |
在本文中,采用了这种方法的概率图形表示,并介绍了两种改进边界的通用技术,即调节和处理。 |
1382 |
Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and Reasoning |
在最初的一百个BP的启发下,我们提出了一个新的基准Bongard-LOGO,用于人类概念学习和推理。 |
1383 |
因此,我们提出了用于终身学习的GAN记忆,这种记忆可以通过生成过程记住数据流,而不会遗忘¥emph {no}。 |
|
1384 |
Deep Reinforcement Learning with Stacked Hierarchical Attention for Text-based Games |
在这项工作中,我们旨在利用知识图进行显式推理,以进行决策,从而通过可解释的推理程序生成并支持代理的动作。 |
1385 |
我们提出了高斯门控线性网络(G-GLN),它是对最近提出的深度神经网络GLN系列的扩展。 |
|
1386 |
Node Classification on Graphs with Few-Shot Novel Labels via Meta Transformed Network Embedding |
为了解决这个问题,我们提出了一种新颖的元转换网络嵌入框架(MetaTNE),该框架由三个模块组成:(1)¥emph {结构模块}根据图结构为每个节点提供潜在的表示。 |
1387 |
Online Fast Adaptation and Knowledge Accumulation (OSAKA): a New Approach to Continual Learning |
我们建议使用Continual-MAML(流行的MAML算法的在线扩展)作为该方案的强基准。 |
1388 |
Convex optimization based on global lower second-order models |
在这项工作中,我们提出了用于复合凸优化的新二阶算法,称为收缩域牛顿法。 |
1389 |
Simultaneously Learning Stochastic and Adversarial Episodic MDPs with Known Transition |
分析这样的调节器并得出特定的自我约束保证是我们的关键技术贡献,并且可能与个人利益有关。 |
1390 |
Relative gradient optimization of the Jacobian term in unsupervised deep learning |
深密度模型已被广泛用于此任务,但基于最大似然的训练需要估计Jacobian的对数行列式,并且计算量大,因此需要在计算和表达能力之间进行权衡。在这项工作中,我们提出了一种精确训练这种神经网络的新方法。 |
1391 |
Self-Supervised Visual Representation Learning from Hierarchical Grouping |
我们创建了一个框架,用于从原始视觉分组功能引导视觉表示学习。 |
1392 |
Optimal Variance Control of the Score-Function Gradient Estimator for Importance-Weighted Bounds |
本文介绍了重要性加权变分界(IWAE)的得分函数梯度估计器的新结果。 |
1393 |
我们研究了高斯噪声注入(GNI)在神经网络中引起的正则化。 |
|
1394 |
我们为高维线性Kolmogorov偏微分方程(PDE)的参数族的数值解提供了一种深度学习算法。 |
|
1395 |
在本文中,我们为双Q学习提供了第一个非渐近分析(即有限时间)。 |
|
1396 |
造成这种性能差距的主要原因是:与框架相机相比,事件传感器的空间分辨率较低;缺乏大规模的培训数据集;缺乏用于基于事件的处理的完善的深度学习架构。在本文中,我们在基于事件的对象检测任务的背景下解决了所有这些问题。 |
|
1397 |
在本文中,我们为游戏的学习和干预提供了一个统一的框架。 |
|
1398 |
Least Squares Regression with Markovian Data: Fundamental Limits and Algorithms |
相反,我们提出了一种基于经验重播的算法(一种流行的强化学习技术),该算法可显着提高错误率。 |
1399 |
Predictive coding in balanced neural networks with noise, chaos and delays |
为了发现这样的原理,我们引入了一种平衡预测编码的分析易处理模型,在该模型中,平衡度和权重失调度可以与以前的平衡网络模型不同地分解,并且我们开发了一种编码精度的均值理论。 |
1400 |
Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs |
我们提出了一种简单的基于插值的方法来对神经ODE模型中的梯度进行有效逼近。 |
1401 |
On the Equivalence between Online and Private Learnability beyond Binary Classification |
我们调查这种等效性是否扩展到多类分类和回归。 |
1402 |
我们引入了一个新的用于行动识别的公共视频数据集:来自不同国家/地区的匿名视频(AViD)。 |
|
1403 |
为了解决这些问题,我们基于可能近似正确的(PAC)学习框架开发了约束学习的泛化理论。 |
|
1404 |
RATT: Recurrent Attention to Transient Tasks for Continual Image Captioning |
在本文中,我们系统地研究了基于LSTM的图像字幕模型的持续学习。 |
1405 |
Decisions, Counterfactual Explanations and Strategic Behavior |
在本文中,我们的目标是找到在这种战略背景下效用最佳的政策和反事实解释。 |
1406 |
Hierarchical Patch VAE-GAN: Generating Diverse Videos from a Single Sample |
我们介绍了一种新颖的基于补丁的变分自动编码器(VAE),它可以在生成中提供更大的多样性。 |
1407 |
A Feasible Level Proximal Point Method for Nonconvex Sparse Constrained Optimization |
在本文中,我们研究了一个由一般的凸或非凸物镜以及各种连续的非凸稀疏性约束组成的新模型。 |
1408 |
Reservoir Computing meets Recurrent Kernels and Structured Transforms |
我们的贡献有三点:a)我们严格建立了储层计算的递归内核极限,并证明了其收敛性。b)我们在混沌时间序列预测上测试了我们的模型,混沌时间序列预测是水库计算中的经典但具有挑战性的基准,并显示了当数据点数量保持适度时,循环核如何具有竞争力和计算效率。c)当样本数量太大时,我们通过引入结构化储层计算来利用结构化随机特征的成功进行内核近似。 |
1409 |
Comprehensive Attention Self-Distillation for Weakly-Supervised Object Detection |
为了解决上述问题,我们为WSOD提出了一种综合注意自我蒸馏(CASD)培训方法。 |
1410 |
为T步运行非线性RNN需要O(T)时间。我们的构造称为LDStack,大约在O(log T)并行时间内运行它们,并通过重复获得任意低的错误。 |
|
1411 |
Ratio Trace Formulation of Wasserstein Discriminant Analysis |
我们将Wasserstein判别分析(WDA)重构为比率跟踪问题,并提出了一种基于特征求解器的算法来计算WDA的判别子空间。 |
1412 |
具体来说,我们为随机核提出了一种基本的PAC-Bayes不等式,从中可以得出各种已知PAC-Bayes界以及新界的扩展。 |
|
1413 |
Few-shot Visual Reasoning with Meta-Analogical Contrastive Learning |
在这项工作中,我们建议通过使用¥emph {analog推理}来解决这种少拍(或低拍)的抽象视觉推理问题,这是人类识别两组之间结构或关系相似性的独特能力。 |
1414 |
MPNet: Masked and Permuted Pre-training for Language Understanding |
在本文中,我们提出了MPNet,这是一种新颖的预训练方法,它继承了BERT和XLNet的优点并避免了它们的局限性。 |
1415 |
我们在表格MDP设置中研究RL,其中代理以过渡样本的形式在每个步骤中收到其他观察结果。 |
|
1416 |
本文介绍了一个用于分析更通用的递归算法(称为随机逼近)的新框架。 |
|
1417 |
在这项研究中,我们提出了一种基于Lipschitz分析和区间算法的快速且可扩展的可验证训练算法。 |
|
1418 |
Fast Adaptive Non-Monotone Submodular Maximization Subject to a Knapsack Constraint |
我们提出了一种简单的随机贪心算法,该算法可以实现近似$ 5.83 $的运行时间,且运行时间为$ O(n loglog n)$,即比其他最新算法至少快$ n $。 |
1419 |
在这里,我们研究了一类耗散(保形)哈密顿系统的保结构离散化,除了为这些方法提供了一些新的见解之外,还使我们能够分析内斯特罗夫和沉重的球的辛结构。 |
|
1420 |
但是,后续工作表明,该框架在研究H一致性时价值有限。特别是,人们甚至担心即使数据来自基础线性模型,也无法将线性计分函数上的某些凸面校准替代品最小化而无法恢复真实模型(Long和Servedio,2013年)。在本文中,我们调查了这个明显的难题。 |
|
1421 |
Inverting Gradients – How easy is it to break privacy in federated learning? |
但是,通过利用幅度不变的损失以及基于对抗攻击的优化策略,我们表明,实际上有可能根据其参数梯度的知识来忠实地重建高分辨率的图像,并证明这种隐私的破坏是可能的即使是经过训练的深度网络。 |
1422 |
Dynamic allocation of limited memory resources in reinforcement learning |
在本文中,我们提出了一个动态框架,以在有限资源的约束下最大化期望的报酬,我们使用成本函数来实现该模型,该函数会对内存中的动作值的精确表示进行惩罚,而每种精确度的表示都可能有所不同。 |
1423 |
本文观察到现有模型不适用于PI,并提出了一种新颖的NAS方法CryptoNAS,用于查找和定制满足PI需求的模型。 |
|
1424 |
A Stochastic Path Integral Differential EstimatoR Expectation Maximization Algorithm |
本文介绍了一种新颖的EM算法,称为{¥tt SPIDER-EM},用于从大小为$ n $,$ n¥gg 1 $的训练集中进行推断。 |
1425 |
CHIP: A Hawkes Process Model for Continuous-time Networks with Scalable and Consistent Estimation |
我们为此类网络提出了社区霍克斯独立对(CHIP)生成模型。 |
1426 |
SAC: Accelerating and Structuring Self-Attention via Sparse Adaptive Connection |
在本文中,我们提出了一种加速和构建自我注意力的方法:稀疏自适应连接(SAC)。 |
1427 |
我们的方法具有三项关键创新:(1)通用的GNN设计空间;(2)具有相似性度量的GNN任务空间,因此对于给定的新颖任务/数据集,我们可以快速识别/传输性能最佳的体系结构;(3)一种有效的设计空间评估方法,该方法可以从大量的模型任务组合中提取见解。 |
|
1428 |
HiFi-GAN: Generative Adversarial Networks for Efficient and High Fidelity Speech Synthesis |
在这项工作中,我们提出了HiFi-GAN,它可以实现高效和高保真语音合成。 |
1429 |
我们引入了非平衡Sobolev下降(USD),这是一种用于将高维源分布传输到不一定具有相同质量的目标分布的粒子下降算法。 |
|
1430 |
Identifying Mislabeled Data using the Area Under the Margin Ranking |
本文介绍了一种在训练神经网络时识别此类样本并减轻其影响的新方法。 |
1431 |
Combining Deep Reinforcement Learning and Search for Imperfect-Information Games |
本文介绍了ReBeL,这是一种自我玩法强化学习和搜索的通用框架,可证明其收敛于任何两人零和游戏中的纳什均衡。 |
1432 |
为了结合两种方法的优点,我们提出了高通量同步深度强化学习(HTS-RL)。 |
|
1433 |
本文通过介绍一个新的用于对抗性学习的对抗性示例系列,并使用这些示例定义了一种新的SSL对抗性训练算法,称为CLAE,来解决该问题。 |
|
1434 |
Mixed Hamiltonian Monte Carlo for Mixed Discrete and Continuous Variables |
在本文中,我们提出了混合HMC(M-HMC)作为解决此限制的通用框架。 |
1435 |
为了解决这些问题,在本文中,我们基于生成的对抗网络(GAN),提出了一个新的时间序列预测模型-对抗性稀疏变压器(AST)。 |
|
1436 |
The Surprising Simplicity of the Early-Time Learning Dynamics of Neural Networks |
在这项工作中,我们证明了这些普遍的看法在学习的早期阶段可能是完全错误的。 |
1437 |
CLEARER: Multi-Scale Neural Architecture Search for Image Restoration |
与现有的劳动密集型手工建筑设计范例不同,我们提出了一种新颖的方法,称为图像恢复的多维度神经体系结构搜索(CLEARER),这是一种专门设计的用于图像恢复的神经体系结构搜索(NAS)。 |
1438 |
Hierarchical Gaussian Process Priors for Bayesian Neural Network Weights |
为此,本文介绍了两项创新:(i)基于高斯过程的网络权重分层模型,该模型基于可以灵活编码相关权重结构的单位嵌入,以及(ii)这些权重先验的输入相关版本可以提供通过使用上下文输入中定义的内核来规范功能空间的便捷方法。 |
1439 |
我们描述了一种通过识别与神经元行为近似的成分逻辑概念来解释深度表示中的神经元的过程。 |
|
1440 |
Calibrated Reliable Regression using Maximum Mean Discrepancy |
在本文中,我们关注在回归任务中获得经过良好校准的预测。 |
1441 |
在本文中,我们表明,尽管交叉熵和相关分类损失的极小值在无穷远处消失,但梯度流学习的网络权重在方向上收敛,网络预测,训练误差和裕度分布也都在收敛。 |
|
1442 |
Functional Regularization for Representation Learning: A Unified Theoretical Perspective |
我们提出了一个判别性的理论框架来分析这些方法的样本复杂性,它概括了(Balcan and Blum,2010)的框架以允许可学习的正则化功能。 |
1443 |
Provably Efficient Online Hyperparameter Optimization with Population-Based Bandits |
在这项工作中,我们介绍了第一个可证明有效的PBT风格算法,即基于人口的匪徒(PB2)。 |
1444 |
Understanding Global Feature Contributions With Additive Importance Measures |
我们引入了两种预测能力的概念(基于模型的和通用的),并通过可加性重要性测度的框架将该方法形式化,这将文献中的许多方法统一起来。 |
1445 |
我们考虑了非凸损失的在线学习问题。在反馈方面,我们假设学习者观察(或以其他方式构造)每个阶段遇到的损失函数的不精确模型,并且我们提出了基于对偶平均的混合策略学习策略。 |
|
1446 |
为了¥textit {完全}转移预训练的模型,我们提出了一个名为¥textbf {Co-Tuning}的两步框架:(i)从预训练的模型和校准的预测中了解源类别和目标类别之间的关系;(ii)通过类别关系翻译的目标标签(单标签)和源标签(概率标签)共同监督微调过程。 |
|
1447 |
Multifaceted Uncertainty Estimation for Label-Efficient Deep Learning |
我们提出了一种新颖的多源不确定性预测方法,该方法可使深度学习(DL)模型能够以少得多的标记数据进行主动训练。 |
1448 |
在这项工作中,我们专注于学习和表示可变形对象类别中的密集对应关系的任务。 |
|
1449 |
Succinct and Robust Multi-Agent Communication With Temporal Message Control |
在本文中,我们介绍了¥textit {Temporal Message Control}(TMC),这是一种在MARL中实现简洁而强大的通信的简单有效的方法。 |
1450 |
为了解决这个问题,我们建议使用一种稀疏的注意力机制BigBird,它将这种二次依赖性降低为线性。 |
|
1451 |
为了解决该问题,我们提出了一种学习型条件掩蔽机制,该机制可使模型在各种算法上以接近完美的精度将其训练范围以外的区域强泛化。 |
|
1452 |
我们通过理论和实验证明,新的方差类型为RR的卓越性能提供了另外的证明。为了超越强凸性,我们提出了一些非强凸和非凸物镜的结果。 |
|
1453 |
Long-Horizon Visual Planning with Goal-Conditioned Hierarchical Predictors |
在这项工作中,我们提出了一个视觉预测和规划框架,该框架能够克服这两个限制。 |
1454 |
Statistical Optimal Transport posed as Learning Kernel Embedding |
这项工作采用了一种新颖的方法,即将统计OT伪装成从基于样本的边际嵌入估计值中学习运输计划的内核均值嵌入的方法。 |
1455 |
在这项工作中,我们引入了双分辨率对应网络(DualRC-Net),以从粗到精的方式获得逐像素的对应关系。 |
|
1456 |
Advances in Black-Box VI: Normalizing Flows, Importance Weighting, and Optimization |
在本文中,我们假设黑盒VI可以通过多种算法组件的精心组合得到最佳解决。 |
1457 |
本文介绍了f散度变分推论(f-VI),它概括了对所有f散度的变分推论。 |
|
1458 |
Unfolding recurrence by Green?s functions for optimized reservoir computing |
这项工作的目的是提出一种可链接到前馈网络的可解决的递归网络模型。 |
1459 |
The Dilemma of TriHard Loss and an Element-Weighted TriHard Loss for Person Re-Identification |
设计并测试了几种缓解困境的方法。同时,着重提出了一种元素加权的TriHard损失,以有选择地增大代表锚和硬负样本之间不同特征的特征向量的部分元素之间的距离。 |
1460 |
我们提出了一种基于几何流形的对称解缠结的新型非参数算法,即几何流形分量估计器(GEOMANCER)。 |
|
1461 |
我们将控制自然语言生成的问题重现为学习与预先训练的语言模型交互的问题,就像应用程序编程接口(API)通过更改超参数来控制程序的行为一样。 |
|
1462 |
Discovering Symbolic Models from Deep Learning with Inductive Biases |
我们通过引入强大的归纳偏差,开发了一种通用方法来提取学习的深度模型的符号表示。 |
1463 |
本文研究了现实世界游戏(例如井字游戏,围棋,星际争霸II)的几何特性。 |
|
1464 |
在这项工作中,我们提出了一个合作的异构深度强化学习(CHDRL)框架,该框架可以通过集成异构代理的优势来学习策略。 |
|
1465 |
Mitigating Forgetting in Online Continual Learning via Instance-Aware Parameterization |
为了减轻这种情况,我们利用了神经网络中的“实例感知”概念,其中每个数据实例均由控制器从元图搜索的网络中的路径进行分类。 |
1466 |
ImpatientCapsAndRuns: Approximately Optimal Algorithm Configuration from an Infinite Pool |
受此想法的启发,我们引入了ImpatientCapsAndRuns,与以前的具有理论保证的算法相比,该算法可快速丢弃不太有前途的配置,显着加快搜索过程,同时在温和的假设下仍能达到对数因子的最佳运行时间。 |
1467 |
Dense Correspondences between Human Bodies via Learning Transformation Synchronization on Graphs |
我们介绍一种用于在部分人体模型扫描与完整模板模型之间建立密集对应关系的方法。 |
1468 |
Reasoning about Uncertainties in Discrete-Time Dynamical Systems using Polynomial Forms. |
在本文中,我们提出了多项式形式来表示离散时间随机动力系统随时间变化的状态变量。 |
1469 |
为了有效地计算公共熵,我们提出了一种迭代算法,该算法可用于发现潜在变量的熵与观测变量的条件互信息之间的折衷。 |
|
1470 |
SGD with shuffling: optimal rates without component convexity and large epoch requirements |
具体来说,根据对有限和的索引进行混洗的方式,我们考虑使用RandomShuffle(在每个时期的开始进行混洗)和SingleShuffle(只进行一次混洗)算法。 |
1471 |
Unsupervised Joint k-node Graph Representations with Compositional Energy-Based Models |
我们提出MHM-GNN,这是一种归纳式无监督图表示方法,它将联合的k节点表示与基于能量的模型(超图马尔可夫网络)和GNN结合在一起。 |
1472 |
在本文中,我们研究流形上的归一化流。 |
|
1473 |
为了避免这种局限性,我们提出了一个新的OT问题,称为CO-最优运输的COOT,该问题同时优化了两个样本和特征之间的两个运输图,这与其他方法不同,后者要么通过关注样本之间的成对距离来丢弃单个特征,要么需要明确地建模它们之间的关系。 |
|
1474 |
在这项工作中,我们可以将通用元学习算法应用于无法进行此任务细分的设置,例如使用不分段的时间序列数据进行连续的在线学习。 |
|
1475 |
通过与最佳运输理论的联系,我们建立了合作交流的数学框架。 |
|
1476 |
Penalized Langevin dynamics with vanishing penalty for smooth and log-concave targets |
我们研究了通过凸和平滑势函数定义的$¥mathbb R ^ p $的概率分布进行抽样的问题。 |
1477 |
我们展示了如何通过参数化扩充分布来学习不变性,并同时针对网络参数和扩充参数优化训练损失。 |
|
1478 |
A Finite-Time Analysis of Two Time-Scale Actor-Critic Methods |
在这项工作中,我们为非iid设置下的两种时间尺度演员批判方法提供了一种非渐近分析。 |
1479 |
为了融合这两种方法的强度,我们建议在过滤器中修剪过滤器。 |
|
1480 |
在这项研究中,我们提出了一种超参数变异(HPM)算法,以明确考虑使用全局搜索和局部搜索之间的可取取的取舍,其中我们采用大量学生模型来同时探索由超梯度引导的超参数空间并利用教师模型通过利用表现最好的学生来改变表现不佳的学生。 |
|
1481 |
A convex optimization formulation for multivariate regression |
在本文中,我们为一般误差协方差结构下的高维多元线性回归提出了凸优化公式。 |
1482 |
Online Meta-Critic Learning for Off-Policy Actor-Critic Methods |
在本文中,我们介绍了一种灵活且扩充的元批评家,该批评家观察了学习过程,并为演员学习了额外的损失,从而加速并改善了演员批判性学习。 |
1483 |
我们研究了估计由加性高斯噪声破坏的一阶稀疏张量的统计问题,高斯加性模型也称为稀疏张量PCA。 |
|
1484 |
Synthesize, Execute and Debug: Learning to Repair for Neural Program Synthesis |
在这项工作中,我们提出了SED,这是一个包含综合,执行和调试阶段的神经程序生成框架。 |
1485 |
在这项工作中,我们建议用自回归移动平均(ARMA)层替换任何传统的卷积层,这是一种具有可调整的接收场的新型模块,该接收场由可学习的自回归系数控制。 |
|
1486 |
Diversity-Guided Multi-Objective Bayesian Optimization With Batch Evaluations |
我们提出了一种新颖的多目标贝叶斯优化算法,该算法迭代选择要并行评估的最佳样本批次。 |
1487 |
在这项工作中,我们设计了一个简单,直接且快速的框架,以实现具有出色性能的实例细分。 |
|
1488 |
Robust Recovery via Implicit Bias of Discrepant Learning Rates for Double Over-parameterization |
本文表明,对于低秩矩阵和稀疏腐败,都使用{¥em double over-parameterization},即使没有先验知识就无需对矩阵进行排序,具有{¥em差异学习率}的梯度下降也可以恢复基础矩阵。也没有稀疏的腐败。 |
1489 |
我们显示,使用MLE进行估算时,一大类随机效用模型(包括Thurstone-Mosteller模型)满足帕累托效率条件。 |
|
1490 |
利用正则化Wasserstein重心问题的新对偶公式,我们引入了一种随机算法,该算法构造了重心的连续逼近。 |
|
1491 |
Spectral Temporal Graph Neural Network for Multivariate Time-series Forecasting |
在本文中,我们提出了频谱时间图神经网络(StemGNN),以进一步提高多元时间序列预测的准确性。 |
1492 |
当假设类别为有限时,我们提供了一种算法,可以在每个试验中以假设数量线性预测时间。 |
|
1493 |
Fewer is More: A Deep Graph Metric Learning Perspective Using Fewer Proxies |
在本文中,我们从图分类的角度提出了一种新颖的基于代理的深度图度量学习(ProxyGML)方法,该方法使用更少的代理,但可以获得更好的综合性能。 |
1494 |
Adaptive Graph Convolutional Recurrent Network for Traffic Forecasting |
在本文中,我们认为学习节点特定的模式对于流量预测至关重要,而可避免使用预定义的图。 |
1495 |
On Reward-Free Reinforcement Learning with Linear Function Approximation |
在这项工作中,我们使用线性函数逼近给出了无报酬RL的正面和负面结果。 |
1496 |
Robustness of Community Detection to Random Geometric Perturbations |
我们考虑一个随机块模型,其中顶点之间的连接受到一些潜在的(和未观察到的)随机几何图的干扰。 |
1497 |
Learning outside the Black-Box: The pursuit of interpretable models |
本文提出了一种算法,该算法可对任何给定的连续黑盒函数产生连续的全局解释。 |
1498 |
Breaking Reversibility Accelerates Langevin Dynamics for Non-Convex Optimization |
我们研究了基于不可逆的Langevin扩散的两个变体:欠阻尼的Langevin动力学(ULD)和具有非对称漂移的Langevin动力学(NLD)。 |
1499 |
在本文中,就我们所知,我们提出了在双曲空间而不是欧几里得空间中学习分类器的第一个理论保证。 |
|
1500 |
Replica-Exchange Nos\'e-Hoover Dynamics for Bayesian Learning on Large Datasets |
在本文中,我们提出了一种用于贝叶斯学习的新实用方法,该方法可以在存在小批量噪声的情况下,从具有多个孤立模式的复杂后验分布中快速提取代表性样本。 |
1501 |
Adversarially Robust Few-Shot Learning: A Meta-Learning Approach |
我们工作的目标是建立既能在几次分类任务中表现出色又能对付对抗性例子的网络。 |
1502 |
在这项工作中,我们分析了网络体系结构在塑造深度分类器的归纳偏差中的作用。 |
|
1503 |
在本文中,我们从理论上将基于频谱的图卷积扩展到有向图,并使用个性化PageRank导出简化形式。 |
|
1504 |
本文提出了一种学习算法的推广约束,该算法使经验损失的¥¥textsc {CVaR} $最小。 |
|
1505 |
为了解决这一缺陷,我们表明,基于斯坦算子的二次采样近似值的随机斯坦因差异(SSD)以概率1继承了标准SD的收敛控制性质。 |
|
1506 |
On the Role of Sparsity and DAG Constraints for Learning Linear DAGs |
在本文中,我们研究了稀疏性和DAG约束在线性高斯和非高斯情况下学习DAG模型的渐近作用,并研究了它们在有限样本方案中的有用性。 |
1507 |
Cream of the Crop: Distilling Prioritized Paths For One-Shot Neural Architecture Search |
为了减轻这个问题,我们提出一种简单而有效的体系结构提纯方法。 |
1508 |
在本文中,我们提出了一种学习多个分类器并同时实现所有分类器公平性的方法,方法是将每个决策模型视为一种软干预,并根据干预后的分布来推断损失函数和公平性约束。 |
|
1509 |
Representation Learning for Integrating Multi-domain Outcomes to Optimize Individualized Treatment |
为了应对这些挑战,我们提出了一个集成的学习框架,该框架可以同时学习患者的潜在精神状态并为每个人推荐最佳治疗方法。 |
1510 |
Learning to Play No-Press Diplomacy with Best Response Policy Iteration |
我们提出了一个简单而有效的近似最佳响应算子,该算子旨在处理大型组合动作空间和同时移动。 |
1511 |
我们建议使用由两个潜在子空间组成的模型学习对称变换,其中第一个子空间捕获目标,第二个子空间捕获剩余的不变信息。 |
|
1512 |
DiffGCN: Graph Convolutional Networks via Differential Operators and Algebraic Multigrid Pooling |
在这项工作中,我们从有限差分和代数多重网格框架的启发下,提出了用于图卷积,池化和池化的新颖方法。 |
1513 |
Distributed Newton Can Communicate Less and Resist Byzantine Workers |
我们提出了一种迭代近似牛顿型算法,在该算法中,工作计算机每次迭代与中央计算机通信¥emph {仅一次}。 |
1514 |
Efficient Nonmyopic Bayesian Optimization via One-Shot Multi-Step Trees |
在本文中,我们提供了通用的多步超前贝叶斯优化的第一个有效实现,它被表述为多步方案树中的一系列嵌套优化问题。 |
1515 |
Effective Diversity in Population Based Reinforcement Learning |
在本文中,我们介绍了一种同时优化总体中所有成员的方法。 |
1516 |
Elastic-InfoGAN: Unsupervised Disentangled Representation Learning in Class-Imbalanced Data |
我们提出了一种新颖的无监督生成模型,该模型学习从类不平衡数据的其他低层方面解开对象身份。 |
1517 |
Direct Policy Gradients: Direct Optimization of Policies in Discrete Action Spaces |
我们展示了如何结合这些技术来产生一种强化学习算法,该算法通过找到优化随机目标的轨迹来近似策略梯度。 |
1518 |
在这项工作中,我们提出两个关键问题。首先,在只有CPU可用的更现实的设置中,GNN模型是否仍然具有竞争力?其次,我们是否可以设计出一种替代的计算便宜的模型,该模型保留GNN架构的预测能力? |
|
1519 |
WoodFisher: Efficient Second-Order Approximation for Neural Network Compression |
我们的工作考虑了这个问题,检查了现有方法的准确性,并提出了一种称为WoodFisher的方法来计算真实有效的逆黑森州估计。 |
1520 |
Bi-level Score Matching for Learning Energy-based Latent Variable Models |
本文提出了一种双层评分匹配(BiSM)方法,通过将SM重新定义为双层优化问题来学习具有通用结构的EBLVM。 |
1521 |
Counterfactual Contrastive Learning for Weakly-Supervised Vision-Language Grounding |
在本文中,我们提出了一种新颖的“反事实相反学习”(CCL),以在反事实正面和负面结果之间发展足够的对比训练,这是基于健壮和破坏性的反事实转换的。 |
1522 |
Decision trees as partitioning machines to characterize their generalization properties |
我们介绍了分区功能的概念,并将其与增长功能和VC维度相关联。 |
1523 |
为了解决这个限制,我们建议学习一种神经发生器,该神经发生器可以自动综合定理和证明,以训练定理证明者。 |
|
1524 |
在这项工作中,我们利用了这些技术,并以代理任务的形式为5种不同的自我监督方法提出了3D版本。 |
|
1525 |
Bayesian filtering unifies adaptive and non-adaptive neural network optimization methods |
我们将神经网络优化问题表述为贝叶斯过滤,其中观测值是反向传播的梯度。 |
1526 |
我们引入了一种统计估计的框架,该框架利用了有关如何收集样本的知识,但没有对数据值进行分布假设。 |
|
1527 |
我们考虑购买用于机器学习或统计估计的数据的问题。 |
|
1528 |
在本文中,我们开发了一种用于学习策略的方法,该方法可在指定级别上减少成本分配的尾巴,此外,还为每个决策的成本提供统计上有效的界限。 |
|
1529 |
在本文中,我们提出了一种用于拜占庭式弹性分布式多任务学习的方法。 |
|
1530 |
我们为FMDP提出了两种接近最优和预言高效的算法。 |
|
1531 |
Improving model calibration with accuracy versus uncertainty optimization |
我们提出一种优化方法,该方法利用准确性和不确定性之间的关系作为不确定性校准的基础。 |
1532 |
本文介绍了一种通过采用线性变换的指数来构建线性流的新方法。 |
|
1533 |
An Improved Analysis of Stochastic Gradient Descent with Momentum |
在这项工作中,我们表明在强凸和非凸设置下,对于平滑目标,SGDM的收敛速度都与SGD一样快。 |
1534 |
Precise expressions for random projections: Low-rank approximation and randomized Newton |
我们利用随机矩阵频谱分析的最新发展来开发新技术,该技术为通过草图绘制获得的随机投影矩阵的期望值提供可证明的准确表达式。 |
1535 |
本文介绍了MAGICAL基准套件,它可以通过量化对IL算法在实践中可能会遇到的各种分布偏移的鲁棒性,来对泛化进行系统的评估。 |
|
1536 |
我们开发了显式校准(X-CAL),它将D-CALIBRATION变成可微分的目标,该目标可与最大似然估计和其他目标一起用于生存模型。 |
|
1537 |
在本文中,我们研究了具有非光滑正则项的分散组合优化问题。 |
|
1538 |
Making Non-Stochastic Control (Almost) as Easy as Stochastic |
在本文中,我们表明,即使在更为通用的非随机控制模型中,该系统由¥emph {任意对抗}噪声¥citep {agarwal2019online}驱动,也可以获得相同的遗憾率(针对适当的基准)。 |
1539 |
BERT Loses Patience: Fast and Robust Inference with Early Exit |
在本文中,我们提出了基于耐心的提前退出,这是一种直接但有效的推理方法,可以用作即插即用技术,以同时提高预训练语言模型(PLM)的效率和鲁棒性。 |
1540 |
Optimal and Practical Algorithms for Smooth and Strongly Convex Decentralized Optimization |
我们针对此分散优化问题提出了两种新算法,并为其配备了复杂性保证。 |
1541 |
BAIL: Best-Action Imitation Learning for Batch Deep Reinforcement Learning |
我们提出了一种新的算法,即最佳动作模仿学习(BAIL),该算法力求简单和高性能。 |
1542 |
Regularizing Towards Permutation Invariance In Recurrent Models |
我们显示RNN可以针对排列不变性进行正则化,并且与非递归体系结构相比,这可以生成紧凑的模型。 |
1543 |
What Did You Think Would Happen? Explaining Agent Behaviour through Intended Outcomes |
我们围绕预期结果的概念,提出了一种新的形式的强化学习解释。 |
1544 |
Batch normalization provably avoids ranks collapse for randomly initialised deep networks |
在这项工作中,我们强调了一个事实,即批量标准化是避免线性和ReLU网络等级下降的有效策略。 |
1545 |
我们提出了一种针对选择强盗的算法,称为Winner Beats All(WBA),在所有这些选择模型下均具有依赖于分布的$ O(¥log T)$遗憾。 |
|
1546 |
我们提出了一种足够快的算法来加快几个矩阵运算的速度。 |
|
1547 |
A Matrix Chernoff Bound for Markov Chains and Its Application to Co-occurrence Matrices |
我们证明了通过常规(非周期性和不可约)有限马尔可夫链采样的矩阵值随机变量之和的Chernoff型边界。 |
1548 |
CoMIR: Contrastive Multimodal Image Representation for Registration |
我们提出了对比编码来学习共享的密集图像表示,称为CoMIR(对比多模态图像表示)。 |
1549 |
在这项工作中,我们开发的分类器不仅在训练分布方面合理,而且在训练样本加权扰动的一类分布上也很公平。 |
|
1550 |
在这项工作中,我们研究了在部分观察到的马尔可夫决策问题情况下的人口资格和算法决策的动力学。 |
|
1551 |
我们介绍MARGE,这是一种预先训练的序列到序列模型,它是在无监督的多语言多文档释义目标下学习的。 |
|
1552 |
GCN meets GPU: Decoupling ?When to Sample? from ?How to Sample? |
通过将采样频率与采样策略脱钩,我们提出了LazyGCN,这是一个通用而有效的框架,可以与任何采样策略集成,以大大缩短培训时间。 |
1553 |
Continual Learning of a Mixed Sequence of Similar and Dissimilar Tasks |
本文提出了一种在同一网络中学习两种任务类型的技术。 |
1554 |
在本文中,我们依赖于适当的复合损失的更广泛的观点以及信息几何,源函数的最新构造,其拟合缓解了规范链接所面临的约束。 |
|
1555 |
HAWQ-V2: Hessian Aware trace-Weighted Quantization of Neural Networks |
在这里,我们介绍解决这些缺点的HAWQ-V2。对于(i),我们从理论上证明正确的灵敏度度量是平均Hessian迹线,而不只是顶部的Hessian特征值。对于(ii),我们开发了一种基于Pareto边界的方法,无需任何人工干预即可自动选择不同层的位精度。对于(iii),我们开发了第一个基于Hessian的混合精度激活量化分析,这对于对象检测非常有益。 |
1556 |
Sample-Efficient Reinforcement Learning of Undercomplete POMDPs |
特别是,我们提出了一种样本有效的OOM-UCB算法,用于情节有限不完全POMDP,其中观察数大于潜在状态数,并且探索对于学习至关重要,因此可将我们的结果与先前的研究区分开。 |
1557 |
Non-Convex SGD Learns Halfspaces with Adversarial Label Noise |
我们研究了在分布特定的PAC模型中不可知论地学习同质半空间的问题。 |
1558 |
此外,我们提出了一种计算有效的归约方法,可将无外部后悔算法转换为无交换后悔算法。 |
|
1559 |
DisCor: Corrective Feedback in Reinforcement Learning via Distribution Correction |
在本文中,我们研究了基于自举的Q学习的RL方法如何遭受函数逼近和用于训练Q函数的数据分布之间的病理相互作用:在标准监督学习下,在线数据收集应引起纠正性反馈,其中新数据可纠正旧预测中的错误。 |
1560 |
OTLDA: A Geometry-aware Optimal Transport Approach for Topic Modeling |
我们提供了一个最佳的运输框架,用于从文本数据中学习主题。 |
1561 |
Measuring Robustness to Natural Distribution Shifts in Image Classification |
我们研究了当前ImageNet模型对于数据集中自然变化引起的分布变化的鲁棒性。 |
1562 |
Can I Trust My Fairness Metric? Assessing Fairness with Unlabeled Data and Bayesian Inference |
我们提出了一个通用的贝叶斯框架,与仅基于标记数据的方法相比,该框架可以用未标记的数据扩充标记的数据,以产生更准确且方差较小的估计。 |
1563 |
RandAugment: Practical Automated Data Augmentation with a Reduced Search Space |
在这项工作中,我们重新考虑了设计自动化数据增强策略的过程。 |
1564 |
我们显示,在可能的非线性扰动下,具有高斯特征的线性回归响应中具有Lipschitz激活函数的环境中,在观察到的数据上,经过训练的NN的导数的加权平均值是渐近正态的。 |
|
1565 |
DisARM: An Antithetic Gradient Estimator for Binary Latent Variables |
我们表明,可以通过分析整合增强过程引入的随机性来改善ARM,从而保证大幅减少方差。我们的估算器DisARM易于实现,并且具有与ARM相同的计算成本。 |
1566 |
我们提出了一个框架,该框架可将图卷积网络(GCN)的功能提升到没有输入图的情况下,并提高其对抗对抗攻击的鲁棒性。 |
|
1567 |
在这项工作中,我们将自我监督的批量对比方法扩展到完全监督的设置,从而使我们能够有效利用标签信息。 |
|
1568 |
Learning Optimal Representations with the Decodable Information Bottleneck |
我们提出了可分解信息瓶颈(DIB),它从所需预测族的角度考虑了信息保留和压缩。 |
1569 |
受理论计算机科学思想的启发,我们表明,在一个智能体系统可以近似模拟另一个智能体系统的意义上,元学习和贝叶斯最优智能体不仅行为相似,而且甚至共享相似的计算结构。 |
|
1570 |
我们通过玩家生成框架引入了一种新颖的玩家表示形式,其中变体编码器将带有潜在变量的玩家信息嵌入其中。 |
|
1571 |
我们给出了一种学习一组给定的噪声时间序列测量值的常微分方程的广义哈密顿分解的方法。 |
|
1572 |
我们介绍了一种新颖的,端到端可学习的,可区分的非刚性跟踪器,该跟踪器通过学习的鲁棒优化实现了最新的非刚性重建。 |
|
1573 |
在这项工作中,我们研究了通过集成实现的一种超参数化形式,其中我们将大学集成(CE)定义为具有相同架构的多个独立模型的集合,并训练为一个模型。 |
|
1574 |
ICNet: Intra-saliency Correlation Network for Co-Saliency Detection |
在本文中,我们提出了一个显着性内部相关网络(ICNet),以从任何现成的SOD方法预测的单个图像显着性图(SISM)中提取显着性内部提示,并通过相关技术获得显着性内部提示。 。 |
1575 |
Improved Variational Bayesian Phylogenetic Inference with Normalizing Flows |
在本文中,我们提出了一种新型的VBPI,即VBPI-NF,这是通过深度学习技术实现系统发育后验估计的第一步。 |
1576 |
在本文中,我们首先研究了嵌入范数对具有角度距离的深度度量学习的影响,然后提出了球形嵌入约束(SEC)来规范范数的分布。 |
|
1577 |
Preference-based Reinforcement Learning with Finite-Time Guarantees |
如果偏好是随机的,并且偏好概率与隐藏的奖励值有关,那么我们将介绍适用于PbRL的算法,无论有无模拟器,该算法都能够以最高概率识别出精度高达varepsilon $的最佳策略。 |
1578 |
AdaBelief Optimizer: Adapting Stepsizes by the Belief in Observed Gradients |
我们提出AdaBelief可以同时实现三个目标:自适应方法中的快速收敛,SGD中的良好通用性以及训练稳定性。 |
1579 |
我们提出了一种新颖的方法,它将机器学习集成到隔室疾病模型(例如SEIR)中,以预测COVID-19的进展。 |
|
1580 |
Off-policy Policy Evaluation For Sequential Decisions Under Unobserved Confounding |
在这种不那么悲观的单决策混杂模型下,我们提出了一种基于最小损失的高效计算最坏情况范围的程序,并证明了其统计一致性。 |
1581 |
Modern Hopfield Networks and Attention for Immune Repertoire Classification |
在这项工作中,我们提出了一种新颖的方法DeepRC,该方法将类似变压器的注意力(或等效的现代Hopfield网络)集成到用于大规模MIL的深度学习架构中,例如免疫库分类。 |
1582 |
One Ring to Rule Them All: Certifiably Robust Geometric Perception with Outliers |
我们提出了第一个通用和实用的框架来设计可验证的算法,以在存在大量异常值的情况下实现鲁棒的几何感知。 |
1583 |
我们提出了一种解决所提出的最小-最大问题的算法,并证明了它以凸中的$¥mathcal {O}(1 /¥epsilon ^ 2)$的最优速率收敛到$¥epsilon $的准确点。设置,并以非凸的$¥mathcal {O}(¥max¥{1 /¥epsilon ^ 5,1 /¥delta ^ 5¥})$的速率到达$(¥epsilon,¥delta)$平稳点设置。 |
|
1584 |
在这项工作中,我们建立了可解释的深层行为批评模型,以显示R学习-一种平衡短期和长期奖励的强化学习(RL)方法-与现实生活中的特工学习留住-或保留决策。 |
|
1585 |
Revisiting Frank-Wolfe for Polytopes: Strict Complementarity and Sparsity |
然后,我们重新研究沃尔夫经典著作¥cite {Wolfe1970}中已经考虑过的严格互补假设,并证明在这种情况下,带有步距和寻线的Frank-Wolfe方法线性收敛,且速率仅明显取决于在最佳面的尺寸上,因此在最佳解决方案稀疏的情况下提供了显着的改进。 |
1586 |
Fast Convergence of Langevin Dynamics on Manifold: Geodesics meet Log-Sobolev |
我们的工作概括了¥cite {VW19}的结果,其中f是在流形M而不是Rn上定义的。 |
1587 |
在本文中,我们介绍了交变极小化的新变体,其反过来是受了解如何指导在矩阵设置中指导交变极小化的收敛的进度度量如何适应张量设置的启发。 |
|
1588 |
在这项研究中,我们推导了包含多尺度GNN的转导学习算法的优化和泛化保证。 |
|
1589 |
Content Provider Dynamics and Coordination in Recommendation Ecosystems |
在这项工作中,我们使用博弈论的视角来研究内容创作的动力。 |
1590 |
我们介绍了一种从观测数据中学习可证明稳定的基于深度神经网络的动态模型的方法。 |
|
1591 |
我们建议通过策略梯度方法学习加速MRI的实验设计策略。 |
|
1592 |
Expert-Supervised Reinforcement Learning for Offline Policy Learning and Evaluation |
为了克服这些问题,我们提出了一种专家监督的RL(ESRL)框架,该框架使用不确定性量化进行离线策略学习。 |
1593 |
ColdGANs: Taming Language GANs with Cautious Sampling Strategies |
在这项工作中,我们展示了最流行的采样方法如何导致语言GAN的不稳定训练。 |
1594 |
Hedging in games: Faster convergence of external and swap regrets |
我们考虑玩家运行对冲算法或其乐观变体¥cite {syrgkanis2015fast}进行T轮重复n动作游戏的设置。 |
1595 |
The Origins and Prevalence of Texture Bias in Convolutional Neural Networks |
通过在训练时采取较少侵略性的随机作物并应用简单自然的增强(颜色失真,噪点和模糊),我们训练出的模型可以在大多数时间通过形状对模糊图像进行分类,并且在分布失调测试中的表现优于基线套。 |
1596 |
在本文中,我们提出了一种新颖的损失函数,该函数可衡量我们的常微分方程(ODE)网络如何满足这种时间反转对称性。它由ODE网络在向前和向后动力学之间的时间演变差异正式定义。 |
|
1597 |
在本文中,我们提供了一种可证明的方法来检测加权图中的重叠社区,而无需明确地假设纯节点。 |
|
1598 |
这项研究首次从算法的角度研究了不平衡最优运输问题的时间复杂性。 |
|
1599 |
也许令人惊讶的是,这并不是最佳选择:我们设计了一种加速算法,该算法通过大约r ^ {-2/3}¥log(1 / epsilon)oracle查询来获得近似ε的最小化器,并给出匹配的下限。 |
|
1600 |
为了减轻奖励设计者的负担,我们提出了一种算法,该算法可自动生成惩罚副作用的辅助奖励功能。 |
|
1601 |
在这里,我们提出了GRAPE,这是一种用于特征插补和标签预测的框架。 |
|
1602 |
在本文中,我们将深入研究模型的增强训练的动力学。这激励我们设计基于增强明智权重共享(AWS)的功能强大且高效的代理任务,以一种优雅的方式形成快速而准确的评估过程。 |
|
1603 |
MMA Regularization: Decorrelating Weights of Neural Networks by Maximizing the Minimal Angles |
受到著名的Tammes问题的启发,我们提出了一种新颖的多样性正则化方法来解决此问题,该方法通过最大化最小对角(MMA),使在超球面上分布的神经元或过滤器的归一化权重向量尽可能均匀。 |
1604 |
本文基于一种新颖的正则化提出了一种完全不同的方法,称为整体正则化(或H正则化),它使系统能够从整体上考虑数据,而不会产生偏向某些特征的模型。 |
|
1605 |
The Generalized Lasso with Nonlinear Observations and Generative Priors |
在本文中,我们研究了当未知的$ n $维信号处于带边界的$ k $维输入的$ L $ -Lipschitz连续生成模型的范围内时,从噪声非线性测量中估计信号的问题。 |
1606 |
Fair regression via plug-in estimator and recalibration with statistical guarantees |
我们研究在公平约束下学习最优回归函数的问题。 |
1607 |
Modeling Shared responses in Neuroimaging Studies through MultiView ICA |
我们为小组研究提出了一种新颖的MultiView独立成分分析(ICA)模型,其中,来自每个主题的数据被建模为共享独立来源和噪声的线性组合。 |
1608 |
Efficient Planning in Large MDPs with Weak Linear Function Approximation |
我们考虑使用线性值函数逼近且仅具有较弱要求的MDP中的规划问题:最优值函数的逼近误差小,以及一小部分“核心”状态,其特征跨越其他状态。 |
1609 |
Efficient Learning of Generative Models via Finite-Difference Score Matching |
为了提高计算效率,我们根据方向导数重写了SM目标及其变体,并提出了一种通用策略来有效地逼近具有有限差(FD)的任意阶方向导数。 |
1610 |
Semialgebraic Optimization for Lipschitz Constants of ReLU Networks |
我们引入了一个半定程序设计层次结构,以估计多层深度神经网络的全局和局部Lipschitz常数。 |
1611 |
对于所有这些,我们表明学习$ k¥timesk $,rank- $ r $,矩阵到归一化的$ L_1 $距离$¥epsilon $需要$¥Omega(¥frac {kr} {¥epsilon ^ 2}) $个样本,并提出一种算法,该算法使用$ {¥cal O}(¥frac {kr} {¥epsilon ^ 2}¥log ^ 2¥frac r¥epsilon)$个样本,高维数为线性数,并且几乎线性,通常较低。 |
|
1612 |
Transferable Calibration with Lower Bias and Variance in Domain Adaptation |
在本文中,我们研究了DA校准中的开放性问题,由于域移位的共存和缺少目标标签,这一问题极具挑战性。 |
1613 |
我们引入了一个新的理论框架来分析深度学习优化及其泛化错误。 |
|
1614 |
Online Bayesian Goal Inference for Boundedly Rational Planning Agents |
在这里,我们提出一种能够从最佳和非最佳动作序列在线推断代理目标的架构。 |
1615 |
BayReL: Bayesian Relational Learning for Multi-omics Data Integration |
在本文中,我们开发了一种新颖的贝叶斯表示学习方法,该方法可以推断出跨多组学数据类型的关系交互。 |
1616 |
此外,我们提出了一种新颖的框架,该框架设计用于完全到完全以及部分到完全的形状匹配,即使在完全监督的方法下,也可以在多个基准数据集上获得最先进的结果。 |
|
1617 |
Domain Adaptation with Conditional Distribution Matching and Generalized Label Shift |
在本文中,我们提出了一个新的假设,即¥textit {广义标签移位}($¥glsa $),以提高针对不匹配标签分布的鲁棒性。 |
1618 |
Rethinking the Value of Labels for Improving Class-Imbalanced Learning |
我们从理论和经验上证明,班级不平衡的学习可以以半监督和自我监督的方式显着受益。 |
1619 |
在本文中,我们证明了现有的度量学习算法(专注于提高清洁精度)会导致度量指标不及欧几里德距离。 |
|
1620 |
Iterative Deep Graph Learning for Graph Neural Networks: Better and Robust Node Embeddings |
在本文中,我们提出了一个端到端的图学习框架,即¥textbf {I} terative¥textbf {D} eep¥textbf {G} raph¥textbf {L} earning(¥alg),用于联合和迭代学习图结构和图嵌入。 |
1621 |
我们介绍了COPT,这是一种通过优化例程定义的图形之间的新颖距离度量,可以同时计算一对协调的最佳运输图。 |
|
1622 |
No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained Classification Problems |
我们提出了GEORGE,一种即使子类标签未知也可以测量和减轻隐藏分层的方法。 |
1623 |
Model Rubik?s Cube: Twisting Resolution, Depth and Width for TinyNets |
本文旨在探索以最小的模型大小和计算成本获得深层神经网络的扭曲规则。 |
1624 |
在本文中,我们观察到模型预测可以极大地有益于训练过程:自适应训练显着减轻了过度拟合的问题,并提高了在随机和对抗性噪声下对ERM的概括性。 |
|
1625 |
Effective Dimension Adaptive Sketching Methods for Faster Regularized Least-Squares Optimization |
我们提出了一种新的基于素描的随机算法来求解L2正则化最小二乘问题。 |
1626 |
从理论上讲,我们的方法可以使用接近最佳数量的被动比较来准确地恢复种植的聚类。 |
|
1627 |
Multi-Task Temporal Shift Attention Networks for On-Device Contactless Vitals Measurement |
我们提出了一种基于视频和设备上的光学心肺生命体征测量方法。 |
1628 |
A new convergent variant of Q-learning with linear function approximation |
在这项工作中,我们提出了一组新颖的条件,通过提出两个时标变化,可以确保与线性函数近似的Q学习概率1收敛。 |
1629 |
TaylorGAN: Neighbor-Augmented Policy Update Towards Sample-Efficient Natural Language Generation |
为了提高采样效率并减小REINFORCE的方差,我们提出了一种新方法TaylorGAN,该方法通过非策略更新和一阶Taylor扩展来增加梯度估计。 |
1630 |
Neural Networks with Small Weights and Depth-Separation Barriers |
在本文中,我们将重点放在前馈ReLU网络上,并通过减少开放性问题和电路复杂性的自然证明障碍,证明了证明此类结果超过4美元的根本障碍。 |
1631 |
Untangling tradeoffs between recurrence and self-attention in artificial neural networks |
在这项工作中,我们对自注意力如何影响递归网络中的梯度传播进行了形式化分析,并证明当通过建立梯度规范的具体界限来捕获长期依赖性时,它可以减轻梯度消失的问题。 |
1632 |
Dual-Free Stochastic Decentralized Optimization with Variance Reduction |
在这项工作中,我们介绍了一种称为DVR的具有方差减少的分散式随机算法。 |
1633 |
Online Learning in Contextual Bandits using Gated Linear Networks |
我们介绍了一种新的且完全在线的上下文强盗算法,称为门控线性上下文强盗(GLCB)。 |
1634 |
Throughput-Optimal Topology Design for Cross-Silo Federated Learning |
在本文中,我们使用最大加线性系统的理论来计算系统吞吐量(每时间单位的通信回合数),从而定义跨部门联合学习的拓扑设计问题。 |
1635 |
我们提出了量化变分推断,一种用于证据下界最小化的新算法。 |
|
1636 |
在本文中,我们研究了¥emph {minibatch MH}方法,该方法改为使用子样本进行缩放。 |
|
1637 |
Learning Search Space Partition for Black-box Optimization using Monte Carlo Tree Search |
在本文中,我们创造了将LaNAS扩展到其他领域的LA-MCTS。 |
1638 |
Feature Shift Detection: Localizing Which Features Have Shifted via Conditional Distribution Tests |
因此,我们首先将此问题的形式化定义为多个条件分布假设检验,并提出非参数和参数统计检验。 |
1639 |
Unifying Activation- and Timing-based Learning Rules for Spiking Neural Networks |
在这项工作中,我们对这两种方法进行了比较研究,并提出了一种将它们结合起来的新的监督学习方法。 |
1640 |
本文提出了一种简单的自我监督方法,用于从原始视频中学习视觉对应关系的表示形式。 |
|
1641 |
我们提出了一个$(¥epsilon,¥delta)$-差分私有算法,该算法在$(1¥pm¥gamma)$的范围内近似$¥dist $,并且具有$ O(¥sqrt {¥ln( 1 /¥delta)} /¥epsilon)$,使用空格$ O(¥ln(¥ln(u)/¥gamma)/¥gamma ^ 2)$。 |
|
1642 |
受病态对数-凹面-凹面分布的抽样问题的影响,正如Zhang等人所述,我们对Langevin镜面扩散进行了干净的非渐近收敛分析。(2020)。 |
|
1643 |
我们提出了一个称为迭代联合聚类算法(IFCA)的新框架,该框架交替估计用户的集群身份并通过梯度下降为用户集群优化模型参数。 |
|
1644 |
在本文中,我们考虑线性自动编码器,因为它们有助于解析解,并且首先表明,去噪/丢包实际上仅在导致归一化L2范式正则化惩罚的程度上才防止过分拟合身份函数。 |
|
1645 |
在本文中,我们通过证明在满足两个条件的游戏中,只要满足特定条件,就可以在多项式时间内计算出最佳的相关均衡,从而显着改善了复杂度阈值。 |
|
1646 |
在这项研究中,我们解决了这些关键挑战,并提出了PGExplainer,它是GNN的参数化解释器。 |
|
1647 |
在本文中,我们考虑了构建混合推理模型的另一种方法。 |
|
1648 |
Flexible mean field variational inference using mixtures of non-overlapping exponential families |
但是,我表明,对于具有稀疏性先验的模型(例如尖峰和台阶),使用标准均值场变分推断可能无法产生明智的结果。幸运的是,当我证明指数族分布与非重叠支持的混合形成指数族时,可以纠正这种病理行为。 |
1649 |
为了克服这一挑战,我们建议使修剪技术了解强大的培训目标,并让培训目标指导搜索与修剪有关的联系。 |
|
1650 |
我们提出了Nouveau VAE(NVAE),这是一种深度分层VAE,用于使用深度方向可分离卷积和批处理归一化来生成图像。 |
|
1651 |
Can Temporal-Di?erence and Q-Learning Learn Representation? A Mean-Field Theory |
我们旨在回答以下问题:当函数逼近器是神经网络时,关联的特征表示如何演化? |
1652 |
What Do Neural Networks Learn When Trained With Random Labels? |
在本文中,我们通过分析表明,对于卷积网络和完全连接网络,当使用随机标签进行训练时,网络参数和数据的主要成分之间会发生对齐。 |
1653 |
在这项工作中,我们假设在束处理的基础上存在低维潜在结构。 |
|
1654 |
Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs |
在这里,我们介绍BetaE,这是一个概率嵌入框架,用于回答KG上的任意FOL查询。 |
1655 |
Learning Disentangled Representations and Group Structure of Dynamical Environments |
受到这种形式主义的启发,我们提出了一个基于群体表示理论的框架,用于学习围绕生成其演化的转换构建的动态环境的表示。 |
1656 |
我们提出了一种基于梯度的灵活框架,用于从最佳决策中学习线性程序。 |
|
1657 |
Wisdom of the Ensemble: Improving Consistency of Deep Learning Models |
本文研究了在部署模型的定期再训练的情况下的模型行为,在该模型中,连续几代模型的输出可能与分配给同一输入的正确标签不一致。 |
1658 |
在这项工作中,我们提供了一个框架,用于在图同构类上构造通用函数逼近器。 |
|
1659 |
Accelerating Reinforcement Learning through GPU Atari Emulation |
我们介绍了CuLE(CUDA学习环境),它是Atari学习环境(ALE)的CUDA端口,用于开发深度强化算法。 |
1660 |
EvolveGraph: Multi-Agent Trajectory Prediction with Dynamic Relational Reasoning |
在本文中,我们提出了一个通用的轨迹预测框架(名为EvolveGraph),该框架具有通过多个异构交互主体之间的潜在交互图进行显式关系结构识别和预测的功能。 |
1661 |
我们研究了适应比较器范数的强凸优化方法,该主题之前仅针对其完整信息进行过研究。 |
|
1662 |
Model-based Reinforcement Learning for Semi-Markov Decision Processes with Neural ODEs |
我们使用神经常微分方程(ODE),在半马尔科夫决策过程(SMDP)的新型基于模型的强化学习(RL)框架中,提出了两种用于模拟连续时间动力学的优雅解决方案。 |
1663 |
The Adaptive Complexity of Maximizing a Gross Substitutes Valuation |
在本文中,我们研究了在基数约束下最大化单调总替代函数的自适应复杂度。 |
1664 |
A Robust Functional EM Algorithm for Incomplete Panel Count Data |
第一步,在完全不存在随机假设的情况下(MCAR),我们提出了一种简单而广泛适用的功能EM算法来估计计数过程的均值函数,这是行为科学家的主要兴趣所在。 |
1665 |
Graph Stochastic Neural Networks for Semi-supervised Learning |
为了提高确定性分类函数的刚性和刚性,本文提出了一种新的框架,称为图随机神经网络(GSNN),其目的是通过同时学习一类函数(即随机函数)来对分类函数的不确定性进行建模。 |
1666 |
Compositional Zero-Shot Learning via Fine-Grained Dense Feature Composition |
我们提出了一种特征组合框架,该框架学习从训练样本中提取基于属性的特征,并将其组合以构造针对看不见的类的细粒度特征。 |
1667 |
A Benchmark for Systematic Generalization in Grounded Language Understanding |
在本文中,我们引入了一个新的基准gSCAN,用于评估情境语言理解中的组合概括。 |
1668 |
在这项工作中,我们为多类分类引入了一种新颖的离散损失函数,即有序分区损失,并证明了针对该损失对WW铰链损失进行了校准。 |
|
1669 |
为此,我们介绍了增强数据增强学习(RAD),这是一个简单的即插即用模块,可以增强大多数RL算法。 |
|
1670 |
Towards Minimax Optimal Reinforcement Learning in Factored Markov Decision Processes |
假设分解是已知的,我们提出两种基于模型的算法。 |
1671 |
在本文中,我们采用分级分配过程进行迭代的软匹配和聚类,其中双向约束和聚类置信度分别由两个单独的退火参数进行调制。 |
|
1672 |
Estimating Training Data Influence by Tracing Gradient Descent |
我们引入了一种称为TracIn的方法,该方法可计算训练示例对模型做出的预测的影响。 |
1673 |
Joint Policy Search for Multi-agent Collaboration with Imperfect Information |
在本文中,我们展示了一个新的术语¥emph {policy-change density},可以将游戏价值的全球变化分解为每个信息集上的本地政策变化。 |
1674 |
Adversarial Bandits with Corruptions: Regret Lower Bound and No-regret Algorithm |
在本文中,我们考虑了一种扩展的设置,其中攻击者坐在环境和学习者之间,并且被赋予有限的预算,以破坏所选手臂的奖励。 |
1675 |
Beta R-CNN: Looking into Pedestrian Detection from Another Perspective |
为了消除该问题,我们提出了一种基于2D Beta分布的新颖表示形式,称为Beta表示形式。 |
1676 |
Batch Normalization Biases Residual Blocks Towards the Identity Function in Deep Networks |
我们显示出这一关键优势的出现是因为,在初始化时,批标准化通过网络深度平方根的数量级上的标准化因子,将相对于跳过连接的残余分支缩小了比例。 |
1677 |
Learning Retrospective Knowledge with Reverse Reinforcement Learning |
我们提出一种反向强化学习(Reverse RL)方法,用于表示回顾性知识。 |
1678 |
Dialog without Dialog Data: Learning Visual Dialog Agents from VQA Data |
在这项工作中,我们研究一种称为“没有对话框的对话框”的设置,该设置要求代理开发可视化的对话框模型,以适应新任务而无需语言级别的监督。 |
1679 |
GCOMB: Learning Budget-constrained Combinatorial Algorithms over Billion-sized Graphs |
尽管现有技术主要集中在获取高质量解决方案上,但尚未充分解决对十亿个大小的图的可伸缩性。此外,对于许多实际情况而言,预算约束的影响尚待研究。在本文中,我们提出了一个名为GCOMB的框架来弥合这些差距。 |
1680 |
A General Large Neighborhood Search Framework for Solving Integer Linear Programs |
我们专注于求解整数程序,并将我们的方法立足于大型邻域搜索(LNS)范例,该范例反复选择变量的子集进行优化,而其余部分则保持不变。 |
1681 |
我们通过一种新颖的重构损失为该问题提供了第一个解决方案,它改进了反馈权重训练,同时通过允许从输出到每个隐藏层的直接反馈连接,同时引入了架构灵活性。 |
|
1682 |
OrganITE: Optimal transplant donor organ offering using an individual treatment effect |
在本文中,我们介绍了OrganITE,这是一种器官到患者的分配方法,该方法不仅根据自身对潜在结果的估计,还根据器官稀缺性来分配器官。 |
1683 |
为了解决这个重要问题,我们提供了第一个完整的图,该图在随机设计下的线性稀疏状态下将Lasso可以渐近实现的所有FDR和功率对与其余对进行区分。 |
|
1684 |
本文表明,深度学习(即,由SGD训练的神经网络)可以在多项时间学习通过某种算法(包括奇偶校验)可以在多项时间学习的任何函数类。 |
|
1685 |
我们研究了回归的问题,在该问题上人们可以放弃预测。我们将此框架称为带有拒绝选项的回归,作为带有拒绝选项的分类的扩展。 |
|
1686 |
在本文中,我们扩展了用于在线算法的原始对偶方法,以便合并将在线算法告知下一步操作的预测。 |
|
1687 |
FLAMBE: Structural Complexity and Representation Learning of Low Rank MDPs |
这项工作着重于表示学习的问题:我们如何学习这些特征? |
1688 |
A Class of Algorithms for General Instrumental Variable Models |
在这项工作中,我们提供了一种用于连续分布中因果关系界定的方法,利用基于梯度的方法的最新进展来优化计算上难以实现的目标函数。 |
1689 |
Black-Box Ripper: Copying black-box models using generative evolutionary algorithms |
在这种情况下,我们提出了一种师生框架,该框架可以将黑匣子(教师)模型提炼成具有最小准确性损失的学生模型。 |
1690 |
我们提出了一系列新颖的贝叶斯优化算法,它们利用目标函数的结构来大大提高采样效率。 |
|
1691 |
TorsionNet: A Reinforcement Learning Approach to Sequential Conformer Search |
我们提出TorsionNet,这是一种在刚性转子近似下基于强化学习的有效顺序适形搜索技术。 |
1692 |
GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis |
在本文中,我们为辐射场提出了一种生成模型,该模型最近被证明可成功用于单个场景的新颖视图合成。 |
1693 |
我们引入了一种端到端的可学习技术,以可靠地识别3D点云数据中的特征边缘。 |
|
1694 |
SimpleTOD是一种面向任务的对话的简单方法,它使用针对所有子任务训练的单一因果语言模型,将其重铸为单个序列预测问题。 |
|
1695 |
A Continuous-Time Mirror Descent Approach to Sparse Phase Retrieval |
我们分析了应用于稀疏相位检索的连续时间镜像下降,这是从一组仅幅度测量中恢复稀疏信号的问题。 |
1696 |
我们提供了一套工具,可用于为$¥theta ^¥star $设计¥textit {confidence sequence}(CS)。 |
|
1697 |
为了解决此限制,我们将混合策略参数化为粒子的混合物,并使用梯度下降-上升来更新其位置和权重。 |
|
1698 |
Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason Over Implicit Knowledge |
在这项工作中,我们提供了第一个证明,即可以训练LM以结合隐含的,预训练的知识和显式的自然语言陈述来可靠地执行系统推理。 |
1699 |
Pipeline PSRO: A Scalable Approach for Finding Approximate Nash Equilibria in Large Games |
我们引入了流水线PSRO(P2SRO),这是第一种基于PSRO的可扩展方法,用于在大型零和不完美信息游戏中查找近似Nash均衡。 |
1700 |
Improving Sparse Vector Technique with Renyi Differential Privacy |
在本文中,我们从仁义差异隐私的角度重新审视了SVT,这带来了新的隐私界限,新的理论见解和SVT算法的新变体。 |
1701 |
具体而言,我们提出了一种Gumbel-CRF,即使用宽松的前向滤波后向采样(FFBS)方法对CRF采样算法进行的连续放松。 |
|
1702 |
在本文中,我们提供了一种新的高效算法,用于近似计算轮廓最大似然(PML)分布,这是对称属性估计中的重要部分。 |
|
1703 |
在本文中,我们介绍了一种新颖的图卷积网络(GCN),称为可分解图卷积网络(FactorGCN),它可以明确解开图中编码的这种纠缠关系。 |
|
1704 |
Guided Adversarial Attack for Evaluating and Enhancing Adversarial Defenses |
在这项工作中,我们为标准损失引入了一个松弛项,该松弛项可找到更合适的梯度方向,提高攻击效率并导致更有效的对抗训练。 |
1705 |
在这项工作中,我们提出了关于NAS的体系结构编码效果的第一个正式研究,包括理论基础和实证研究。 |
|
1706 |
Noise2Same: Optimizing A Self-Supervised Bound for Image Denoising |
在这项工作中,我们介绍了Noise2Same,这是一种新颖的自我监督降噪框架。 |
1707 |
Early-Learning Regularization Prevents Memorization of Noisy Labels |
我们提出了一种新颖的框架,可在存在噪声注释的情况下通过深度学习进行分类。 |
1708 |
本文通过提出一个线性组装的像素自适应回归网络(LAPAR)来解决这一难题,该网络将直接LR映射到HR映射学习,转化为基于多个预定义滤波器基的字典的线性系数回归任务。 |
|
1709 |
在本文中,我们朝着显示固有非线性模型的可精简性迈出了一步。 |
|
1710 |
Consistent Plug-in Classifiers for Complex Objectives and Constraints |
对于约束分类问题,我们提出了统计上一致的算法,其中目标(例如F度量,G均值)和约束(例如人口统计奇偶性,覆盖率)由混淆矩阵的一般函数定义。 |
1711 |
我们建议使用运动修剪,这是一种更简单,确定性的一阶权重修剪方法,它更适合于预训练的模型微调。 |
|
1712 |
Sanity-Checking Pruning Methods: Random Tickets can Win the Jackpot |
在本文中,我们基于几种最近的非结构化修剪方法对上述信念进行了完备性检查,令人惊讶地发现:(1)一组旨在寻找随机初始化网络(我们称为初始票证)的良好子网络的方法。 ,几乎不会利用培训数据中的任何信息;(2)对于通过这些方法获得的修剪网络,在保持每层保留权重总数不变的同时,随机更改每一层的保留权重不会影响最终性能。 |
1713 |
我们给出了一个在线算法,并证明了带有辅助信息的在线二进制矩阵完成的新颖错误和后悔界限。 |
|
1714 |
Position-based Scaled Gradient for Model Quantization and Pruning |
我们提出了基于位置的按比例缩放的梯度(PSG),该梯度根据权重矢量的位置对梯度进行缩放以使其对压缩更友好。 |
1715 |
我们研究具有主要和次要损失的在线学习问题。 |
|
1716 |
在这里,我们介绍图信息瓶颈(GIB),这是一种信息理论原理,可以最佳地平衡学习到的图结构数据表示形式的表现力和健壮性。 |
|
1717 |
The Complexity of Adversarially Robust Proper Learning of Halfspaces with Agnostic Noise |
我们研究了独立于分布的不可知PAC模型中对半空间的对抗性强健的正确学习的计算复杂性,重点是Lp扰动。 |
1718 |
我们考虑了非平稳随机优化的框架[Besbes等。[2015年]具有平方误差损失和噪声梯度反馈,其中研究了在线学习者对时变比较器序列的动态后悔。 |
|
1719 |
RNNPool: Efficient Non-linear Pooling for RAM Constrained Inference |
在本文中,我们介绍了RNNPool,这是一种基于递归神经网络(RNN)的新型池化运算符,该运算符可有效地在大块图像上聚合特征并快速下采样激活图。 |
1720 |
相反,我们提出了¥emph {具有多个目标的不可知论学习}($¥almo $)的新框架,其中针对基本目标混合中的¥emph {any}权重优化了模型。 |
|
1721 |
3D Multi-bodies: Fitting Sets of Plausible 3D Human Models to Ambiguous Image Data |
我们建议可以通过合适的3D模型(例如用于人类的SMPL)对可能的身体形状和姿势进行参数化,从而更有效地对模糊度进行建模。 |
1722 |
Auto-Panoptic: Cooperative Multi-Component Architecture Search for Panoptic Segmentation |
在这项工作中,我们提出了一个高效,协作且高度自动化的框架,以便基于流行的一次性网络架构搜索(NAS),在统一的全景分割流程中同时搜索所有主要组件,包括骨干,分割分支和特征融合模块。范例。 |
1723 |
为了解决这个问题,我们提出了一个平滑的近似值,即SOFT(基于可伸缩最优传输的可分配差分)top-k运算符。 |
|
1724 |
Information-theoretic Task Selection for Meta-Reinforcement Learning |
我们提出了一种基于信息论的任务选择算法,该算法优化了用于元RL训练的任务集,而不管它们是如何生成的。 |
1725 |
在本手稿中,我们提出了PAC-Bayes框架的局限性。 |
|
1726 |
On Completeness-aware Concept-Based Explanations in Deep Neural Networks |
在本文中,我们研究了基于概念的深度神经网络(DNN)的可解释性。 |
1727 |
在本文中,我们提出了一种称为随机递归梯度下降下降(SREDA)的新方法,该方法可以使用方差减少来更有效地估算梯度。 |
|
1728 |
Why Normalizing Flows Fail to Detect Out-of-Distribution Data |
我们调查为什么归一化流量在OOD检测中表现不佳。 |
1729 |
Explaining Naive Bayes and Other Linear Classifiers with Polynomial Time and Delay |
相反,我们表明,可以在对数线性时间内完成对NBC的一次PI解释的计算,并且相同的结果也适用于更通用的线性分类器 |
1730 |
在本文中,我们建议在无监督机器翻译中利用最新方法来训练完全无监督的神经编译器。 |
|
1731 |
Adversarial Style Mining for One-Shot Unsupervised Domain Adaptation |
为此,我们提出了一种新颖的对抗式风格挖掘方法,该方法将风格传递模块和特定于任务的模块组合成对抗式方式。 |
1732 |
在本文中,我们通过证明跟随者始终有可能针对领导者与跟随者之间学习互动的各种情况有效地计算(接近)最优回报,从而填补了这一空白。 |
|
1733 |
本文提出了具有竞争性的算法,用于一类新颖的在线记忆优化问题。 |
|
1734 |
IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method |
我们介绍了一个在局部优化是光滑且强凸的分散优化设置下设计原始方法的框架。 |
1735 |
Evolving Graphical Planner: Contextual Global Planning for Vision-and-Language Navigation |
在本文中,我们介绍了Evolving Graphical Planner(EGP),这是一个模块,可以根据原始的感官输入对导航进行全局规划。 |
1736 |
Learning from Failure: De-biasing Classifier from Biased Classifier |
基于这些观察,我们通过同时训练一对神经网络,提出了一种基于故障的去偏方案。 |
1737 |
Likelihood Regret: An Out-of-Distribution Detection Score For Variational Auto-encoder |
在本文中,我们观察到,当这些方法应用于基于变分自动编码器(VAE)的生成模型时,其中某些方法会失败。 |
1738 |
Deep Diffusion-Invariant Wasserstein Distributional Classification |
在本文中,我们提出了一种新颖的分类方法,称为深度扩散不变Wasserstein分布分类(DeepWDC)。 |
1739 |
我们引入了两种算法来克服这些问题,并在《纽约客》字幕比赛收集的大规模众包数据集(2.2美元/百万美元)以及测试数百种可能的癌症药物的数据集上证明了它们的出色经验性能。 |
|
1740 |
受这种生物学机制的启发,我们提出了一种搜索方法,而不是直接优化神经网络的权重参数,而仅搜索特定于突触的Hebbian学习规则,这些规则使网络可以在代理的生命周期内不断地自我组织其权重。 |
|
1741 |
A Computational Separation between Private Learning and Online Learning |
我们证明,假设存在单向函数,即使对于具有多项式样本复杂度的一般纯私有学习者来说,这样的有效转换也是不可能的。 |
1742 |
在这项工作中,我们提出了Top-KAST,一种在整个训练过程中(前进和后退)都保持恒定稀疏性的方法。 |
|
1743 |
而不是寻找更好的任务感知初始化,我们专注于MAML框架中的一个补充因素,即内循环优化(或快速适应)。 |
|
1744 |
Tight last-iterate convergence rates for no-regret learning in multi-player games |
我们研究了在多人游戏中为无悔学习算法获得最后迭代收敛速度的问题。 |
1745 |
Curvature Regularization to Prevent Distortion in Graph Embedding |
为了解决该问题,我们提出曲率正则化,以增强用于嵌入歧管的平面度,从而防止变形。 |
1746 |
我们在深度神经网络(DNN)图像分类器领域中考虑了基于黑盒转移的目标对抗攻击威胁模型。 |
|
1747 |
Statistical and Topological Properties of Sliced Probability Divergences |
在本文中,我们旨在弥合这一差距,并得出切片概率散度的各种理论特性。 |
1748 |
在这项工作中,我们通过使用概率潜在变量模型概念化学习者和主动的元学习设置,将基于先验经验的任务选择引入元学习算法中。 |
|
1749 |
Knowledge Distillation in Wide Neural Networks: Risk Bound, Data Efficiency and Imperfect Teacher |
在本文中,我们从理论上分析了广泛的神经网络的知识提炼。 |
1750 |
本文提出了一种具有两种新颖攻击技术的对抗攻击模型,以扰动图结构并降低深度图匹配的质量:(1)内核密度估计方法用于估计和最大化节点密度,从而通过推动被攻击来推导不可察觉的扰动。在两个图中密集区域的节点,因此它们与许多邻居是无法区分的;(2)开发了一种基于元学习的投影梯度下降方法,以很好地选择攻击起点,并提高搜索性能以产生有效的扰动。 |
|
1751 |
The Generalization-Stability Tradeoff In Neural Network Pruning |
我们证明了这种“一般化-稳定性的权衡”存在于各种各样的修剪设置中,并提出了其原因的机制:修剪与噪声注入类似。 |
1752 |
贝叶斯元学习背后的关键思想是层次模型的经验贝叶斯推理。在这项工作中,在提出基于梯度电磁算法的变体之前,我们将该框架扩展为包括各种现有方法。 |
|
1753 |
Logarithmic Regret Bound in Partially Observable Linear Dynamical Systems |
利用这种估计方法,我们提出了自适应控制在线学习(AdapOn),这是一种有效的强化学习算法,可以自适应地学习系统动力学并通过在线学习步骤不断更新其控制器。 |
1754 |
在本文中,我们建议对具有任意压缩和延迟更新的分布式SGD变体进行统一分析。 |
|
1755 |
我们提出了Canonical 3D Deformer Map,这是常见对象类别的3D形状的新表示形式,可以从独立对象的2D图像集合中学习。 |
|
1756 |
在本文中,我们迈出了一步,通过使用元梯度通过元梯度下降自动在线自动调整超参数(Xu et al。,2018)。 |
|
1757 |
我们方法的核心是一个在波形域中的深层网络,它在给定感兴趣的角度为θ±w / 2的情况下将源隔离开。和角窗尺寸w。 |
|
1758 |
High-Dimensional Bayesian Optimization via Nested Riemannian Manifolds |
在本文中,我们提议利用非欧几里得搜索空间的几何形状(通常在各种领域中出现),以学习保留结构的映射并优化低维潜在空间中BO的获取功能。 |
1759 |
Train-by-Reconnect: Decoupling Locations of Weights from Their Values |
为了评估我们的假设,我们提出了一种称为超前置换(LaPerm)的新颖方法,通过重新连接权重来训练DNN。 |
1760 |
我们研究了用用户级差分隐私来学习$ k $符号上的离散分布的基本问题。 |
|
1761 |
Matrix Completion with Quantified Uncertainty through Low Rank Gaussian Copula |
本文提出了具有量化不确定性的缺失值归因的概率和可扩展框架。 |
1762 |
本文从两个方向扩展了这项工作:首先,我们将alpha-entmax扩展到连续域,揭示了与Tsallis统计信息和变形的指数族的联系。其次,我们引入了连续域注意机制,为{1,2}中的alpha派生了有效的梯度反向传播算法。 |
|
1763 |
Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Detection |
本文深入研究了以上三个基本要素的¥emph {representations}:质量估计,分类和本地化。 |
1764 |
在这项工作中,我们介绍排名范围的总和(SoRR)作为形成学习目标的一般方法。 |
|
1765 |
Robust Deep Reinforcement Learning against Adversarial Perturbations on State Observations |
我们提出了状态对抗性马尔可夫决策过程(SA-MDP),以研究此问题的基本属性,并开发一种理论上有原则的策略正则化方法,可将其应用于包括深度确定性策略梯度(DDPG)在内的一大类DRL算法,近端策略优化(PPO)和深层Q网络(DQN),用于离散和连续动作控制问题。 |
1766 |
我们完善了以前对可逆生成网络异常检测失败的调查,并通过模型偏差和域先验的组合对其进行了清晰的解释:在任何自然图像数据集上进行训练时,卷积网络都会学习类似的低层特征分布,而这些低级特征支配可能性。 |
|
1767 |
在本文中,我们将此概念扩展到分层聚类,其目的是递归划分数据以优化特定目标。 |
|
1768 |
Self-training Avoids Using Spurious Features Under Domain Shift |
我们确定并分析了域偏移可能很大的一种特定设置,但是这些算法可证明行得通:某些虚假特征与源域中的标签相关,但与目标中的标签无关。 |
1769 |
Improving Online Rent-or-Buy Algorithms with Sequential Decision Making and ML Predictions |
在这项工作中,我们将在线租借或购买问题作为顺序决策问题进行研究。 |
1770 |
CircleGAN: Generative Adversarial Learning across Spherical Circles |
我们提出了一种新型的GAN鉴别器,通过学习使用球形圆的结构化超球面嵌入空间来提高生成样本的真实性和多样性。 |
1771 |
WOR and $p$'s: Sketches for $\ell_p$-Sampling Without Replacement |
我们为WOR {¥em $¥ell_p $抽样}设计新颖的可组合草图,根据密钥频率的幂$ p¥in [0,2] $(或对于签名数据,更新总和)对密钥进行加权抽样。 |
1772 |
我们介绍了超解算器,设计用于以低开销解决ODE的神经网络以及理论上的准确性保证。 |
|
1773 |
Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable Neural Distribution Alignment |
在本文中,我们提出了一种基于对数似然比统计和归一化流的新的分布对齐方法。 |
1774 |
为了避免这些缺点,我们研究了另一种变换,即¥emph {escort}映射,该变换展示了更好的优化属性。 |
|
1775 |
本文提出了一种在线环境下的推荐系统的理论分析,其中随着时间的流逝顺序向用户推荐项目。 |
|
1776 |
我们研究具有整流线性单位(ReLU)激活的两层神经网络中的缺失。 |
|
1777 |
Second Order Optimality in Decentralized Non-Convex Optimization via Perturbed Gradient Tracking |
在本文中,我们研究了在分散的环境中从鞍点逃逸并实现二阶最优性的问题,在这种分散性的环境中,一组代理协作以最小化其总体目标功能。 |
1778 |
Implicit Regularization in Deep Learning May Not Be Explainable by Norms |
通过证明存在自然矩阵分解问题,隐式正则化将所有范数(和准范数)推向无穷大,本论文以否定的方式解决了这个悬而未决的问题。 |
1779 |
POMO: Policy Optimization with Multiple Optima for Reinforcement Learning |
我们介绍了具有多个最优策略的策略优化(POMO),这是一种构建这种启发式求解器的端到端方法。 |
1780 |
Uncertainty-aware Self-training for Few-shot Text Classification |
我们提出一种方法,通过结合利用贝叶斯深度学习的最新进展的基础神经网络的不确定性估计来改善自我训练。 |
1781 |
在这项研究中,我们采用元学习来发现使用反馈连接和受生物学启发的本地学习规则进行学习的网络。 |
|
1782 |
在本文中,我们提出了一个新颖的框架来统一和利用BEV和RV的收益。 |
|
1783 |
在本文中,我们通过开发泛化边界来提供精细的稳定性分析,泛化边界的速度可以比现有结果快$¥sqrt {n} $倍,其中,$ n $是样本量。 |
|
1784 |
A Measure-Theoretic Approach to Kernel Conditional Mean Embeddings |
我们提出了一种新的无算子,度量理论方法,将条件均值嵌入为随机变量,并在再生内核希尔伯特空间中获取值。 |
1785 |
我们考虑估计经验量度和一组概率量度之间的Wasserstein距离的问题,这些概率量度对函数类(假设类)的期望受到约束。 |
|
1786 |
Bootstrap Your Own Latent – A New Approach to Self-Supervised Learning |
我们介绍了Bootstrap Your Own Latent(BYOL),这是一种用于自我监督的图像表示学习的新方法。 |
1787 |
Towards Theoretically Understanding Why Sgd Generalizes Better Than Adam in Deep Learning |
这项工作旨在通过分析局部收敛行为来提供对这一概括差距的理解。 |
1788 |
RSKDD-Net: Random Sample-based Keypoint Detector and Descriptor |
本文提出了基于随机样本的关键点检测器和描述符网络(RSKDD-Net),用于大规模点云注册。 |
1789 |
Efficient Clustering for Stretched Mixtures: Landscape and Optimality |
为了克服这个问题,我们提出了一个非凸程序,该程序寻求仿射变换,以将数据转换为集中在-1和1附近的一维点云,此后聚类变得容易。 |
1790 |
在本文中,我们开发了这样一个框架来解释数据扩充,即对整个组的轨道进行平均,从而使数据分布保持近似不变,并表明这会导致方差减少。 |
|
1791 |
The Statistical Cost of Robust Kernel Hyperparameter Turning |
我们考虑从假设超平方未知的一类内核中找到最佳插值的问题。 |
1792 |
How does Weight Correlation Affect Generalisation Ability of Deep Neural Networks? |
本文研究了深度神经网络中权重相关的新概念,并讨论了其对网络泛化能力的影响。 |
1793 |
ContraGAN: Contrastive Learning for Conditional Image Generation |
在本文中,我们提出了ContraGAN,它通过使用条件对比损失来考虑同一批中的多个图像嵌入之间的关系(数据与数据之间的关系)以及数据与类之间的关系。 |
1794 |
On the distance between two neural networks and the stability of learning |
本文将参数距离与一类广泛的非线性合成函数的梯度分解相关联。 |
1795 |
为了解决这个问题,本文提出了一种过滤标签噪声的新方法。 |
|
1796 |
为了解决这个问题,我们提出了一种使用Moreau信封作为客户的正则损失函数的个性化FL(pFedMe)算法,该算法有助于在针对个性化FL的二级问题中将个性化模型优化与全局模型学习分离。 |
|
1797 |
在玩具环境中,可达到的效用保护(AUP)通过惩罚实现随机生成目标的能力的变化来避免副作用。我们将这种方法扩展到基于Conway的《生命游戏》的大型随机生成的环境。 |
|
1798 |
No-regret Learning in Price Competitions under Consumer Reference Effects |
我们研究了两个公司之间反复价格竞争的长期市场稳定性,其中消费者需求取决于公司的发布价格和称为参考价格的消费者价格预期。 |
1799 |
在这项工作中,我们提出了另一种数据集之间距离的概念:(i)与模型无关,(ii)不涉及训练,(iii)可以比较数据集,即使它们的标签集完全不相交,并且(iv)具有扎实的理论立足点。 |
|
1800 |
Task-Agnostic Amortized Inference of Gaussian Process Hyperparameters |
我们介绍了一种在GP回归和相关问题中识别内核超参数的方法,该方法回避了对代价高昂的边际可能性的需求。 |
1801 |
在这里,我们提出并分析一种新颖的{¥it变型形式的Schatten- $ p $准范数},这在文献中首次被定义为$ p¥in(0,1] $的任何连续值。并沿着分解矩阵的列解耦。 |
|
1802 |
我们建议使用能量评分的OOD检测统一框架。 |
|
1803 |
On the Loss Landscape of Adversarial Training: Identifying Challenges and How to Overcome Them |
我们分析了对抗训练对机器学习模型损失格局的影响。 |
1804 |
User-Dependent Neural Sequence Models for Continuous-Time Event Data |
在本文中,我们将神经标记点过程模型的广泛类别扩展到潜在嵌入的混合,其中每个混合组件都对给定用户的特征进行建模。 |
1805 |
Active Structure Learning of Causal DAGs via Directed Clique Trees |
在这项工作中,我们为单节点干预措施制定了一个¥textit {universal}下界,该界限确定了最大的集团是¥textit {always}是结构学习的基本障碍。 |
1806 |
Convergence and Stability of Graph Convolutional Networks on Large Random Graphs |
我们通过分析随机图的标准模型上的行为来研究图卷积网络(GCN)的特性,其中节点由随机潜在变量表示,并且根据相似性内核绘制边缘。 |
1807 |
BoTorch: A Framework for Efficient Monte-Carlo Bayesian Optimization |
我们介绍BoTorch,这是一种用于贝叶斯优化的现代编程框架,该框架结合了蒙特卡洛(MC)采集功能,新颖的样本平均逼近优化方法,自动微分和方差减少技术。 |
1808 |
Reconsidering Generative Objectives For Counterfactual Reasoning |
作为朝着更加灵活,可扩展和准确的ITE估算迈出的一步,我们提出了一种新颖的生成贝叶斯估算框架,该框架集成了表示学习,对抗匹配和因果估算。 |
1809 |
Robust Federated Learning: The Case of Affine Distribution Shifts |
本文的主要目的是开发一种鲁棒的联合学习算法,该算法针对用户样本中的分布偏移可实现令人满意的性能。 |
1810 |
Quantile Propagation for Wasserstein-Approximate Gaussian Processes |
我们为高斯过程模型开发了一种新的近似推理方法,该方法克服了因放弃这些方便的分歧而引起的技术挑战。 |
1811 |
Generating Adjacency-Constrained Subgoals in Hierarchical Reinforcement Learning |
在本文中,我们表明,可以通过使用邻接约束将高级动作空间从整个目标空间限制到当前状态的k步相邻区域,来有效地缓解此问题。 |
1812 |
High-contrast ?gaudy? images improve the training of deep neural network models of visual cortex |
我们提出自然图像的高对比度,二值化版本(称为艳丽的图像),以有效地训练DNN以预测更高阶的视觉皮层反应。 |
1813 |
Duality-Induced Regularizer for Tensor Factorization Based Knowledge Graph Completion |
为了解决这一挑战,我们提出了一种新颖的正则化程序,即¥textbf {DU}性诱导的¥textbf {R} egul¥textbf {A} rizer(DURA),它不仅可以有效改善现有模型的性能,而且广泛适用于各种方法。 |
1814 |
Distributed Training with Heterogeneous Data: Bridging Median- and Mean-Based Algorithms |
为了克服这个差距,我们提供了一种新颖的梯度校正机制,该机制会用噪声干扰局部梯度,我们证明了该机制可证明可以弥补梯度平均值和中值之间的差距。 |
1815 |
H-Mem: Harnessing synaptic plasticity with Hebbian Memory Networks |
在这里,我们提出了Hebbian内存网络(H-Mems),这是一个简单的神经网络模型,它围绕受Hebbian可塑性影响的核心异质关联网络建立。 |
1816 |
Neural Unsigned Distance Fields for Implicit Function Learning |
在这项工作中,我们以可学习的输出表示形式为目标,该输出表示形式允许连续,高分辨率的任意形状的输出。 |
1817 |
在本文中,我们提出了一种基于课程的优雅方案,该方案使用抗锯齿或低通滤波器来平滑CNN的特征嵌入。 |
|
1818 |
为了解决这个问题,我们提出了聚类注意力,它不是为每个查询计算注意力,而是将查询分组为聚类并仅针对质心计算注意力。 |
|
1819 |
我们通过针对ReLU神经元的新的紧缩凸松弛提高了基于传播和线性优化的神经网络验证算法的有效性。 |
|
1820 |
Strongly Incremental Constituency Parsing with Graph Neural Networks |
在本文中,我们提出了一种新的过渡系统,称为attach-juxtapose。 |
1821 |
AOT: Appearance Optimal Transport Based Identity Swapping for Forgery Detection |
在这项工作中,我们提供了一种新的身份交换算法,该算法在外观上存在很大差异,可用于人脸伪造检测。 |
1822 |
Uncertainty-Aware Learning for Zero-Shot Semantic Segmentation |
在本文中,我们确定了这一挑战,并以一种新颖的框架应对了这一挑战,该框架学会了基于贝叶斯不确定性估计来区分噪声样本。 |
1823 |
Delta-STN: Efficient Bilevel Optimization for Neural Networks using Structured Response Jacobians |
在本文中,我们在STN的训练中诊断出一些微妙的病理。 |
1824 |
First-Order Methods for Large-Scale Market Equilibrium Computation |
我们开发了适合于大规模市场解决这些程序的简单一阶方法。 |
1825 |
Minimax Optimal Nonparametric Estimation of Heterogeneous Treatment Effects |
在本文中,我们将HTE建模为两个不太平滑的基线函数之间的平滑非参数差异,并确定非参数HTE估计的紧密统计范围作为协变量几何的函数。 |
1826 |
Residual Force Control for Agile Human Behavior Imitation and Extended Motion Synthesis |
为了克服动态失配,我们提出了一种新的方法,即残余力控制(RFC),该方法通过将外部残余力添加到动作空间中来增强类人动物控制策略。 |
1827 |
我们开发了一个从批次中进行稳健学习的通用框架,并确定了任意范围(包括连续域)的分布估计(尤其是分类)的限制。 |
|
1828 |
Not All Unlabeled Data are Equal: Learning to Weight Data in Semi-supervised Learning |
在本文中,我们研究了如何对“每个”未标记的示例使用不同的权重。 |
1829 |
在本文中,我们认为,对比学习的一个重要方面,即硬底片的影响,到目前为止已被忽略。 |
|
1830 |
在这项工作中,我们介绍了MOReL,这是基于模型的离线RL的算法框架。 |
|
1831 |
Weisfeiler and Leman go sparse: Towards scalable higher-order graph embeddings |
在这里,我们提出了局部变体和相应的神经体系结构,它们考虑了原始邻域的一个子集,使它们更具可伸缩性,并且不太容易过度拟合。 |
1832 |
Adversarial Crowdsourcing Through Robust Rank-One Matrix Completion |
我们提出了一种将交替最小化与极值滤波相结合的新算法,并提供了充分必要的条件来恢复原始的秩一矩阵。 |
1833 |
Learning Semantic-aware Normalization for Generative Adversarial Networks |
在本文中,我们通过学习生成对抗网络(SariGAN)中特征通道的语义感知相对重要性,提出了一种新颖的图像合成方法。 |
1834 |
这项工作提出了一种基于神经网络的理论基础方法,可以利用干预性数据,从而朝着这一方向迈出了新的一步。 |
|
1835 |
在本文中,我们介绍了单样本导引对象表示反汇编(One-GORD)方法,该方法仅需要为每个对象类别提供一个带注释的样本,即可从未注释的图像中学习反汇编的对象表示。 |
|
1836 |
Extrapolation Towards Imaginary 0-Nearest Neighbour and Its Improved Convergence Rate |
在本文中,我们提出了一种新颖的多尺度$ k $ -NN(MS- $ k $ -NN),该方法将未加权的$ k $ -NN估计值从多个$ k¥ge 1 $值推算为$ k = 0 $,因此给出一个虚构的0-NN估计量。 |
1837 |
在这项工作中,我们开发了一个框架,用于从使用重现内核构造的鲁棒密度估计量的超滤中构造鲁棒的持久性图。 |
|
1838 |
Contextual Games: Multi-Agent Learning with Side Information |
通过基于核的正则性假设,我们对不同情境和游戏结果之间的相关性进行建模,并提出一种新颖的在线(元)算法,该算法利用这种相关性来最大程度地减少单个玩家的情境后悔。 |
1839 |
Goal-directed Generation of Discrete Structures with Conditional Generative Models |
在本文中,我们通过对给定感兴趣的特性的离散结构的分布进行建模,来研究直接针对此反问题的条件生成模型的使用。 |
1840 |
Beyond Lazy Training for Over-parameterized Tensor Decomposition |
在本文中,我们研究了一个密切相关的张量分解问题:给定一个$ l $阶次张量,在$(R ^ d)^ {¥o倍l} $等级$ r $(其中$ r¥ll d $)中,梯度下降的变体可以找到其中$ m> r $的等级$ m $分解? |
1841 |
Denoised Smoothing: A Provable Defense for Pretrained Classifiers |
我们提出一种可证明地防御任何预训练图像分类器免受$¥ell_p $对抗攻击的方法。 |
1842 |
为此,我们提出了两种微分批处理算法,这些算法证明了收敛速度的非渐近上限,揭示了微批处理大小的线性加速。 |
|
1843 |
为此,我们提出了一种新颖的零击表示学习框架,该框架仅使用类级别的属性共同学习判别性的全局和局部特征。 |
|
1844 |
在这项工作中,我们说明了支撑现代视觉系统的神经网络表示形式如何受到监督崩溃的影响,从而使它们失去了执行训练任务不必要的任何信息,包括可能转移到新任务或领域的信息。 |
|
1845 |
我们在生成器模型的潜在空间中提出了一个基于能量的模型(EBM),以使EBM可以作为生成器模型自上而下网络上的先验模型。 |
|
1846 |
Learning Long-Term Dependencies in Irregularly-Sampled Time Series |
我们通过设计一种基于长短期记忆(LSTM)的新算法来提供解决方案,该算法将其记忆与时间连续状态分开。 |
1847 |
为了帮助解决这个问题,我们引入了Storm EVent ImagRy(SEVIR)数据集-一个丰富的数据集,该数据集将来自多个传感器的时空对齐数据与深度学习模型和评估指标的基线实现相结合,以加快新算法的创新。 |
|
1848 |
Lightweight Generative Adversarial Networks for Text-Guided Image Manipulation |
我们提出一种新颖的轻量级生成对抗网络,以使用自然语言描述进行有效的图像处理。 |
1849 |
High-Dimensional Contextual Policy Search with Unknown Context Rewards using Bayesian Optimization |
我们开发了有效的模型,这些模型利用搜索空间的结构来直接使用贝叶斯优化从汇总奖励中启用上下文策略优化。 |
1850 |
我们提出了一种用于神经网络的分层模型融合算法,该算法利用最佳传输来在模型的神经元取平均之前对它们进行(软)对齐。 |
|
1851 |
在这项工作中,我们将在一个基本的鲁棒控制设置下重新检验RARL的有效性:线性二次(LQ)情况。 |
|
1852 |
Learning Individually Inferred Communication for Multi-Agent Cooperation |
为了解决这些困难,我们提出了个人推断通信(I2C),这是一个简单而有效的模型,使代理能够了解代理之间的先验通信。 |
1853 |
本文提倡一个用于学习Set2Graph函数的神经网络模型,该模型既实用又具有最大表达能力(通用),也就是说,可以在紧凑集上近似任意连续的Set2Graph函数。 |
|
1854 |
Graph Random Neural Networks for Semi-Supervised Learning on Graphs |
在本文中,我们提出了一个简单而有效的框架-图形随机神经网络(GRAND)来解决这些问题。 |
1855 |
我们提出了一种替代方案:梯度增强归一化流(GBNF)通过使用梯度增强相继添加新的NF分量来对密度进行建模。 |
|
1856 |
Open Graph Benchmark: Datasets for Machine Learning on Graphs |
我们提出了开放图谱基准(OGB),它是一组具有挑战性和现实意义的基准数据集,旨在促进可扩展,健壮和可再现的图机学习(ML)研究。 |
1857 |
Towards Understanding Hierarchical Learning: Benefits of Neural Representations |
在这项工作中,我们证明了中间¥mph {神经表示}为神经网络增加了更多的灵活性,并且比原始输入更具优势。 |
1858 |
在这里,我们显示了椭圆的分布很好地描述了纹理的深层卷积神经网络(CNN)激活分布,因此,根据最佳传输理论,约束其均值和协方差足以生成新的纹理样本。然后,我们提出了自然测地线(即,两点之间的最短路径)与最佳传输度量的结合,以在任意纹理之间进行插值。 |
|
1859 |
Hierarchical Neural Architecture Search for Deep Stereo Matching |
在本文中,我们通过将特定于任务的人类知识整合到神经体系结构搜索框架中,提出了第一个用于深度立体声匹配的¥emph {end-to-end}分层NAS框架。 |
1860 |
MuSCLE: Multi Sweep Compression of LiDAR using Deep Entropy Models |
我们提出了一种新颖的压缩算法,用于减少LiDAR感官数据流的存储。 |
1861 |
Implicit Bias in Deep Linear Classification: Initialization Scale vs Training Accuracy |
当最小化“对角线性网络”上的指数损失时,我们提供了梯度流轨迹及其隐式优化偏差的详细渐近研究。 |
1862 |
Focus of Attention Improves Information Transfer in Visual Features |
在本文中,我们专注于通过使用受物理最小作用原理启发的计算模型在真正的在线环境中传输视觉信息的无监督学习。 |
1863 |
Auditing Differentially Private Machine Learning: How Private is Private SGD? |
更广泛地说,我们的工作采用定量的,经验性的方法来理解由差分私有算法的特定实现提供的隐私,我们认为这些算法有可能补充和影响差分隐私的分析工作。 |
1864 |
A Dynamical Central Limit Theorem for Shallow Neural Networks |
在这里,我们将平均场动力学作为Wasserstein梯度流进行分析,并证明在宽度渐近极限内,由宽度定标的平均场演化偏离在整个训练过程中仍然有限。 |
1865 |
Measuring Systematic Generalization in Neural Proof Generation with Transformers |
我们有兴趣了解在接受以自然语言形式编码的知识进行培训时,变压器语言模型(TLM)能够很好地执行推理任务。 |
1866 |
Big Self-Supervised Models are Strong Semi-Supervised Learners |
我们方法的关键要素是在预训练和微调过程中使用大型(深层和宽层)网络。我们发现,标签越少,这种方法(与任务无关的未标签数据的使用)从更大的网络中受益越多。 |
1867 |
Learning from Label Proportions: A Mutual Contamination Framework |
在这项工作中,我们通过根据相互污染模型(MCM)提出LLP来解决这两个问题,该模型最近已成功地用于研究其他各种弱监督环境。 |
1868 |
Fast Matrix Square Roots with Applications to Gaussian Processes and Bayesian Optimization |
尽管现有方法通常需要O(N ^ 3)计算,但我们引入了一种高效的二次时间算法,用于通过矩阵计算K ^ {1/2} b,K ^ {-1/2} b及其导数,向量乘法(MVM)。 |
1869 |
Self-Adaptively Learning to Demoir? from Focused and Defocused Image Pairs |
在本文中,我们提出了一种自适应学习方法,可以借助附加的散焦的无莫尔模糊图像来使高频图像降噪。 |
1870 |
Confounding-Robust Policy Evaluation in Infinite-Horizon Reinforcement Learning |
我们开发了一种鲁棒的方法,根据敏感度模型,在给定来自无限策略的另一策略的数据的情况下,该策略在无限地平线问题中估计给定策略(无法识别)值的急剧边界。 |
1871 |
在本文中,我们介绍了一种将模型类依赖(MCR)的计算扩展到随机森林分类器和回归器的新技术。 |
|
1872 |
Follow the Perturbed Leader: Optimism and Fast Parallel Algorithms for Smooth Minimax Games |
在这项工作中,我们表明,当损失函数的序列为¥emph {predictable}时,对FTPL进行简单修改并加入乐观可以实现更好的后悔保证,同时为不可预测的序列保留最优的最坏情况后悔保证。 |
1873 |
我们提出了一种新颖的基于递归的算法,并表明如果$¥delta = O¥left(¥rho /¥sqrt {¥dim_E}¥right)$,则可以使用$ O(¥dim_E)$轨迹找到最优策略,其中$¥rho $是最佳操作的最佳$ Q $值与第二最佳操作的最优QQ-值之间的差,而$¥dim_E $是$¥mathcal {F} $的Eluder维度。 |
|
1874 |
为了应对这些挑战,我们提出了一种元适应框架,使学习者能够适应不断发展的目标领域而不会造成灾难性的遗忘。 |
|
1875 |
在本文中,我们将综合可视化编程任务的问题形式化。 |
|
1876 |
在本文中,我们将重点放在有效的并行算法上,以完成对基于图形模型的推理的关键机器学习任务,尤其是基本信念传播算法。 |
|
1877 |
Firefly Neural Architecture Descent: a General Approach for Growing Neural Networks |
我们提出了萤火虫神经体系结构下降的概念,这是渐进和动态增长的神经网络共同优化网络参数和体系结构的通用框架。 |
1878 |
Risk-Sensitive Reinforcement Learning: Near-Optimal Risk-Sample Tradeoff in Regret |
我们提出了两种可证明有效的无模型算法,即风险敏感值迭代(RSVI)和风险敏感Q学习(RSQ)。 |
1879 |
Learning to Decode: Reinforcement Learning for Decoding of Sparse Graph-Based Channel Codes |
我们在这项工作中表明,强化学习可以成功地应用于解码短到中等长度的基于稀疏图的信道代码。 |
1880 |
在本文中,我们提出了一个称为SNG-DBSCAN的简单变体,该变体基于子采样的$¥epsilon $邻域图进行聚类,只需要访问成对的点的相似性查询,尤其是避免了任何需要嵌入的复杂数据结构的数据点本身。 |
|
1881 |
我们通过研究核采样(用于生成自动完成的应用程序的一种常用的生成文本的方法)无意间泄露了用户键入的文本,从而启动了ML系统代码安全性的研究。 |
|
1882 |
Multiparameter Persistence Image for Topological Machine Learning |
我们为多参数持久性引入了一个新的描述符,我们将其称为多参数持久性图像,它适用于机器学习和统计框架,对数据的扰动具有鲁棒性,比基于切片的现有描述符具有更高的分辨率,并且可以高效地进行计算在实际大小的数据集上。 |
1883 |
我们介绍了PLANS(来自神经推断规范的程序学习),它是一种基于视觉观察的程序合成的混合模型,该模型可以同时利用两个方面的优势,这取决于(i)经过训练的神经体系结构,可以从每个原始个体中提取抽象的高级信息输入(ii)使用提取的信息作为I / O规范的基于规则的系统,以合成捕获不同观察结果的程序。 |
|
1884 |
我们考虑从输出的观测值估计随机多层神经网络的输入和隐藏变量的问题。 |
|
1885 |
我们的主要见识在于,通过推理隐式场扰动如何影响局部表面几何形状,可以最终区分表面样本相对于底层深层隐式场的3D位置。 |
|
1886 |
Variational Interaction Information Maximization for Cross-domain Disentanglement |
我们得出了目标的一个可理解的界限,并提出了一个称为交互信息自动编码器(IIAE)的生成模型。 |
1887 |
Provably Efficient Exploration for Reinforcement Learning Using Unsupervised Learning |
我们提出了一个基于两个组件的通用算法框架:无监督学习算法和无悔表格式RL算法。 |
1888 |
我们使用一种更加忠实于演绎推理的新颖QE方法解决了这个问题,并表明这可以提高对不完整KB的复杂查询的性能。 |
|
1889 |
我们使用能够输出任意深度值的新神经网络体系结构以及从真实分布和预测分布之间的Wasserstein距离得出的新损失函数来解决这些问题。 |
|
1890 |
Multi-agent Trajectory Prediction with Fuzzy Query Attention |
具体而言,我们提出了一种关系模型,以灵活地建模各种环境中代理之间的交互。 |
1891 |
Multilabel Classification by Hierarchical Partitioning and Data-dependent Grouping |
在本文中,我们利用标签向量的稀疏性和层次结构使用标签分组将它们嵌入到低维空间中。 |
1892 |
我们提出了用于投影到旋转组上的SVD的理论分析。 |
|
1893 |
我们提出了一个BL模型,该模型(1)产生与BP相同的神经权重更新,而(2)利用局部可塑性,即所有神经元仅同时执行局部计算。 |
|
1894 |
Manifold GPLVMs for discovering non-Euclidean latent structure in neural data |
在这里,我们提出了一个新的概率潜在变量模型,以同时识别潜在状态和每个神经元以无监督方式贡献其表示的方式。 |
1895 |
为了克服这些限制,我们引入了一种分布式蒸馏算法,其中设备可以通信并从软决策(softmax)输出中学习,而软决策输出本质上是不可知的,并且只能随类的数量进行扩展。 |
|
1896 |
COOT: Cooperative Hierarchical Transformer for Video-Text Representation Learning |
在本文中,我们提出了一种协作式分层变压器(COOT),以利用该分层信息并为不同级别的粒度和不同模式之间的交互建模。 |
1897 |
为此,我们提出了一种新的可识别护照的规范化公式,该公式通常适用于大多数现有的规范化层,并且仅需添加另一个用于IP保护的可识别护照的分支即可。 |
|
1898 |
基于这些发现,我们提出了一种可采样分解的生成对抗性推荐器(SD-GAR)。 |
|
1899 |
在本文中,我们从理论上研究了深度和宽度在自我注意中的相互作用。 |
与本文相关的类别