当前位置:网站首页>Aiko ai Frontier promotion (7.6)
Aiko ai Frontier promotion (7.6)
2022-07-06 21:03:00 【Communauté des sages】
LG - Apprentissage automatique CV - Vision par ordinateur CL - Calcul et langue AS - Audio et voix RO - Robot
De l'amour à la belle vie
Résumé:Prédiction de la performance de dérive distribuée du réseau neuronal、Justification du Modèle linguistique intégration accrue、Système recommandé avec une garantie de fiabilité non distribuée、Déballage des effets aléatoires et cycliques des séquences photographiques retardées、Formation à l'algorithme itératif d'amincissement basé sur la différence implicite、Aperçu des nouveaux domaines interdisciplinaires de la robotique biologique、Grâce à l'optimisation distribuée, le robot Multi - membres peut grimper librement tout en touchant la capture et le mouvement riches、Robot d'escalade quadripode robuste et polyvalent、Étiquettes et champs de rayonnement d'objets textuels
1、[LG] Agreement-on-the-Line: Predicting the Performance of Neural Networks under Distribution Shift
C Baek, Y Jiang, A Raghunathan, Z Kolter
[CMU]
Agreement-on-the-Line:Prédiction de la performance de dérive distribuée du réseau neuronal.Récemment,MillerEt al.,Dans la distribution d'un modèle(ID)La précision est comparable à celle de plusieursOODEn dehors de la distribution sur la base de référence(OOD)La précision a une forte corrélation linéaire——Ils appellent ce phénomène"Précision en ligne(accuracy-on-the-line)".Bien qu'il s'agisse d'un outil utile pour choisir un modèle( C'est - à - dire qu'il est le plus susceptible de montrer le meilleur OOD Le modèle de IDModèle de précision), Mais ce fait n'aide pas à estimer la réalité du modèle OODPerformance, Parce qu'aucune annotation n'a été obtenue OODEnsemble de validation. Cet article montre un phénomène similaire mais surprenant , C'est - à - dire que la cohérence entre les paires de classificateurs de réseaux neuronaux est également établie. :Peu importe.accuracy-on-the-lineOui Non, Deux réseaux neuronaux arbitraires ont été observés ( Avec des architectures potentiellement différentes ) Interprévisionnel OOD La cohérence avec leurs ID La cohérence est fortement linéaire .En outre,Nous avons observé,OOD vs ID La pente et l'écart constants par rapport à OOD vs ID La précision de .Ce phénomène, Appelez ça la cohérence en ligne (agreement-on-the-line), A une importance pratique importante : En l'absence de données dimensionnelles , On peut prédire le classificateur OODPrécision,Parce queOOD La cohérence peut être estimée à l'aide de données non marquées . L'algorithme de prédiction est agreement-on-the-line Dérive établie , Et étonnamment , Si la précision n'est pas en ligne , Est supérieur à la méthode précédente . Ce phénomène est également Réseau neuronal profond Offre de nouvelles perspectives :Avecaccuracy-on-the-lineC'est différent.,agreement-on-the-line Ça ne semble fonctionner que pour les classificateurs de réseaux neuronaux .
Recently, Miller et al. [56] showed that a model’s in-distribution (ID) accuracy has a strong linear correlation with its out-of-distribution (OOD) accuracy on several OOD benchmarks — a phenomenon they dubbed “accuracy-on-the-line”. While a useful tool for model selection (i.e., the model most likely to perform the best OOD is the one with highest ID accuracy), this fact does not help estimate the actual OOD performance of models without access to a labeled OOD validation set. In this paper, we show a similar but surprising phenomenon also holds for the agreement between pairs of neural network classifiers: whenever accuracyon-the-line holds, we observe that the OOD agreement between the predictions of any two pairs of neural networks (with potentially different architectures) also observes a strong linear correlation with their ID agreement. Furthermore, we observe that the slope and bias of OOD vs ID agreement closely matches that of OOD vs ID accuracy. This phenomenon, which we call agreement-on-the-line, has important practical applications: without any labeled data, we can predict the OOD accuracy of classifiers, since OOD agreement can be estimated with just unlabeled data. Our prediction algorithm outperforms previous methods both in shifts where agreement-on-the-line holds and, surprisingly, when accuracy is not on the line. This phenomenon also provides new insights into deep neural networks: unlike accuracy-on-the-line, agreement-on-the-line appears to only hold for neural network classifiers.
https://arxiv.org/abs/2206.13089
2、[CL] Rationale-Augmented Ensembles in Language Models
X Wang, J Wei, D Schuurmans, Q Le, E Chi, D Zhou
[Google Research]
Justification du Modèle linguistique intégration accrue.Des études récentes ont montré que,Justification, Ou une chaîne de pensée étape par étape , Peut être utilisé pour améliorer la performance des tâches de raisonnement en plusieurs étapes . Dans cet article, nous examinons à nouveau la façon de suggérer l'amélioration rationnelle , Pour l'apprentissage contextuel de petits échantillons ,Parmi eux(Entrée→Produits) L'invite est étendue à (Entrée、Justification→Produits)Conseils. Conseils pour l'amélioration de la raison , Il est prouvé que les méthodes existantes, qui reposent sur l'ingénierie manuelle, sont soumises à des raisons sous - optimales qui peuvent nuire au rendement. . Pour atténuer cette fragilité , Cet article présente un cadre d'intégration amélioré fondé sur une justification unifiée , Identifier l'échantillonnage des motifs dans l'espace de sortie comme un élément clé d'une amélioration robuste du rendement . Le cadre est générique , Peut être facilement étendu aux tâches communes de traitement du langage naturel , Même les tâches qui n'utilisent pas traditionnellement les étapes intermédiaires ,Comme Q & A、 Désambiguation sémantique et analyse émotionnelle . Avec les méthodes de pointe existantes —— Comprend des conseils standard non justifiés et des conseils de chaîne de pensée fondés sur des motifs ——Comparé à, Justification une meilleure intégration permet d'obtenir des résultats plus précis et plus interprétables , Entre - temps, l'interprétation des prévisions du modèle est améliorée par des raisons connexes. .
Recent research has shown that rationales, or step-by-step chains of thought, can be used to improve performance in multi-step reasoning tasks. We reconsider rationale-augmented prompting for few-shot in-context learning, where (input → output) prompts are expanded to (input, rationale → output) prompts. For rationale-augmented prompting we demonstrate how existing approaches, which rely on manual prompt engineering, are subject to sub-optimal rationales that may harm performance. To mitigate this brittleness, we propose a unified framework of rationale-augmented ensembles, where we identify rationale sampling in the output space as the key component to robustly improve performance. This framework is general and can easily be extended to common natural language processing tasks, even those that do not traditionally leverage intermediate steps, such as question answering, word sense disambiguation, and sentiment analysis. We demonstrate that rationale-augmented ensembles achieve more accurate and interpretable results than existing prompting approaches—including standard prompting without rationales and rationale-based chain-of-thought prompting—while simultaneously improving interpretability of model predictions through the associated rationales.
https://arxiv.org/abs/2207.00747
3、[IR] Recommendation Systems with Distribution-Free Reliability Guarantees
A N. Angelopoulos, K Krauth, S Bates, Y Wang, M I. Jordan
[UC Berkeley]
Système recommandé avec une garantie de fiabilité non distribuée. Lors de la mise en place du système recommandé , Toujours essayer d'exporter un ensemble d'éléments utiles à l'utilisateur . Derrière le système , Un modèle de classement prédit lequel des deux candidats est le meilleur , Ces comparaisons par paires doivent être affinées en résultats orientés vers l'utilisateur. .Et pourtant, Un modèle de classement appris n'est jamais parfait ,Donc,, Sa prédiction ne garantit pas à première vue la fiabilité de la sortie orientée vers l'utilisateur . À partir d'un modèle de classement pré - formé , Cet article montre comment retourner une collection d'articles qui sont strictement garantis de contenir la plupart des bons articles . Ce programme donne à tout modèle de classement un taux strict de détection des erreurs (FDR) Contrôle limité des échantillons pour ,Peu importe.(Inconnu) Comment les données sont - elles réparties .En outre, L'algorithme d'étalonnage proposé simplifie l'intégration de plusieurs cibles dans le système de recommandation. .Par exemple, Cet article montre comment faire pour FDR Optimiser la diversité recommandée au niveau du contrôle , Poids spécial pour éviter la perte de diversité spécifiée et la perte de précision .Tout au long du processus, Se concentrer sur l'apprentissage des questions de classement d'un ensemble de recommandations possibles ,InYahoo! Learning to RankEtMSMarco La méthodologie proposée a été évaluée sur l'ensemble de données .
When building recommendation systems, we seek to output a helpful set of items to the user. Under the hood, a ranking model predicts which of two candidate items is better, and we must distill these pairwise comparisons into the user-facing output. However, a learned ranking model is never perfect, so taking its predictions at face value gives no guarantee that the user-facing output is reliable. Building from a pre-trained ranking model, we show how to return a set of items that is rigorously guaranteed to contain mostly good items. Our procedure endows any ranking model with rigorous finite-sample control of the false discovery rate (FDR), regardless of the (unknown) data distribution. Moreover, our calibration algorithm enables the easy and principled integration of multiple objectives in recommender systems. As an example, we show how to optimize for recommendation diversity subject to a user-specified level of FDR control, circumventing the need to specify ad hoc weights of a diversity loss against an accuracy loss. Throughout, we focus on the problem of learning to rank a set of possible recommendations, evaluating our methods on the Yahoo! Learning to Rank and MSMarco datasets.
https://arxiv.org/abs/2207.01609
4、[CV] Disentangling Random and Cyclic Effects in Time-Lapse Sequences
E Härkönen, M Aittala, T Kynkäänniemi, S Laine, T Aila, J Lehtinen
[Aalto University & NVIDIA]
Déballage des effets aléatoires et cycliques des séquences photographiques retardées. Les séquences photographiques retardées fournissent un aperçu visuellement convaincant des processus dynamiques , Ces processus sont trop lents , Impossible d'observer en temps réel .Et pourtant, En raison d'effets aléatoires (Comme le temps) Et les effets périodiques ( Comme un cycle de jour et de nuit )Impact de, La lecture d'une longue séquence photographique retardée sous forme vidéo entraîne souvent un clignotement perturbateur. . Dans cet article, nous présentons le problème du déballage des séquences retardées , Permet une tendance globale dans l'image 、 Les effets périodiques et aléatoires font l'objet d'un contrôle post érieur distinct , Et décrit une technique de génération de modèles basée sur les données pour atteindre cet objectif . D'une manière qui n'est pas possible avec une seule image d'entrée "Rendu"Séquence.Par exemple, Peut stabiliser une longue séquence , En option 、 Par temps constant , Attention à la croissance des plantes sur plusieurs mois . La méthode proposée est basée sur la création d'un réseau de contre - mesures (GAN), En fonction des coordonnées temporelles des séquences photographiques retardées . Sa structure et son programme de formation sont conçus de cette façon : Le réseau apprend à utiliser GAN Pour simuler des changements aléatoires ,Comme le temps, Et en utilisant des caractéristiques de Fourier avec des fréquences spécifiques pour fournir des étiquettes de temps conditionnelles au modèle , Pour distinguer les tendances générales des variations cycliques .Les expériences montrent que, Le modèle proposé est robuste aux défauts des données de formation , Quelques difficultés pratiques pour saisir les séquences à long délai , Comme l'occlusion temporaire 、 Espacement inégal des cadres et absence de cadres .
Time-lapse image sequences offer visually compelling insights into dynamic processes that are too slow to observe in real time. However, playing a long time-lapse sequence back as a video often results in distracting flicker due to random effects, such as weather, as well as cyclic effects, such as the day-night cycle. We introduce the problem of disentangling time-lapse sequences in a way that allows separate, after-the-fact control of overall trends, cyclic effects, and random effects in the images, and describe a technique based on data-driven generative models that achieves this goal. This enables us to "re-render" the sequences in ways that would not be possible with the input images alone. For example, we can stabilize a long sequence to focus on plant growth over many months, under selectable, consistent weather. Our approach is based on Generative Adversarial Networks (GAN) that are conditioned with the time coordinate of the time-lapse sequence. Our architecture and training procedure are designed so that the networks learn to model random variations, such as weather, using the GAN's latent space, and to disentangle overall trends and cyclic variations by feeding the conditioning time label to the model using Fourier features with specific frequencies. We show that our models are robust to defects in the training data, enabling us to amend some of the practical difficulties in capturing long time-lapse sequences, such as temporary occlusions, uneven frame spacing, and missing frames.
https://arxiv.org/abs/2207.01413
5、[LG] Object Representations as Fixed Points: Training Iterative Refinement Algorithms with Implicit Differentiation
M Chang, T L. Griffiths, S Levine
[UC Berkeley & Princeton University]
L'objet point représente :Formation à l'algorithme itératif d'amincissement basé sur la différence implicite.Amélioration itérative—— En commençant par des suppositions aléatoires , Et ensuite itérer pour améliorer la conjecture —— Est une représentation utile du paradigme d'apprentissage , Fournit un moyen de briser la symétrie entre les interprétations tout aussi raisonnables des données . Cette propriété permet d'appliquer la méthode pour déduire la représentation des ensembles d'entités , Comme un objet dans une scène Physique , Structure similaire à l'algorithme de regroupement dans l'espace sous - Marin .Et pourtant, La plupart des travaux antérieurs ont consisté à différencier par un processus de raffinement lâche , Cela peut rendre l'optimisation difficile . Dans cet article, nous observons que la méthode peut être différenciée par le théorème de la fonction implicite , Et a développé une méthode de différenciation implicite , En découplant l'avant et l'arrière , Améliorer la stabilité et l'opérabilité de l'entraînement . Ce lien permet d'appliquer les progrès de l'optimisation des couches cachées , Non seulement ça s'est amélioré SLATE Optimisation du module d'attention du canal moyen —— Une méthode d'apprentissage de pointe pour la représentation des entités —— Et avec la même complexité spatiale et temporelle de Rétropropagation, , .Il suffit d'ajouter une ligne de code pour .
Iterative refinement – start with a random guess, then iteratively improve the guess – is a useful paradigm for representation learning because it offers a way to break symmetries among equally plausible explanations for the data. This property enables the application of such methods to infer representations of sets of entities, such as objects in physical scenes, structurally resembling clustering algorithms in latent space. However, most prior works differentiate through the unrolled refinement process, which can make optimization challenging. We observe that such methods can be made differentiable by means of the implicit function theorem, and develop an implicit differentiation approach that improves the stability and tractability of training by decoupling the forward and backward passes. This connection enables us to apply advances in optimizing implicit layers to not only improve the optimization of the slot attention module in SLATE, a state-of-the-art method for learning entity representations, but do so with constant space and time complexity in backpropagation and only one additional line of code.
https://arxiv.org/abs/2207.00787
Plusieurs autres documents intéressants:
[RO] Biological Robots: Perspectives on an Emerging Interdisciplinary Field
Robot biologique : Aperçu des nouveaux domaines interdisciplinaires
D. Blackiston, S. Kriegman, J. Bongard, M. Levin
[Tufts University & University of Vermont]
https://arxiv.org/abs/2207.00880
[RO] Simultaneous Contact-Rich Grasping and Locomotion via Distributed Optimization Enabling Free-Climbing for Multi-Limbed Robots
Grâce à l'optimisation distribuée, le robot Multi - membres peut grimper librement tout en touchant la capture et le mouvement riches
Y Shirai, X Lin, A Schperberg, Y Tanaka...
[University of California, Los Angeles]
https://arxiv.org/abs/2207.01418
[RO] SCALER: A Tough Versatile Quadruped Free-Climber Robot
SCALER:Robot d'escalade quadripode robuste et polyvalent
Y Tanaka, Y Shirai, X Lin, A Schperberg, H Kato, A Swerdlow, N Kumagai, D Hong
[University of California, Los Angeles]
https://arxiv.org/abs/2207.01180
[CV] LaTeRF: Label and Text Driven Object Radiance Fields
LaTeRF:Étiquettes et champs de rayonnement d'objets textuels
A Mirzaei, Y Kant, J Kelly, I Gilitschenski
[University of Toronto]
https://arxiv.org/abs/2207.01583
边栏推荐
- 基于深度学习的参考帧生成
- How to implement common frameworks
- 2022 refrigeration and air conditioning equipment installation and repair examination contents and new version of refrigeration and air conditioning equipment installation and repair examination quest
- 2022 construction electrician (special type of construction work) free test questions and construction electrician (special type of construction work) certificate examination
- 【mysql】游标的基本使用
- C # use Oracle stored procedure to obtain result set instance
- OSPF multi zone configuration
- Statistical inference: maximum likelihood estimation, Bayesian estimation and variance deviation decomposition
- 【OpenCV 例程200篇】220.对图像进行马赛克处理
- Distributed ID
猜你喜欢
基于STM32单片机设计的红外测温仪(带人脸检测)
Spark SQL chasing Wife Series (initial understanding)
Swagger UI教程 API 文档神器
【深度学习】PyTorch 1.12发布,正式支持苹果M1芯片GPU加速,修复众多Bug
Pinduoduo lost the lawsuit, and the case of bargain price difference of 0.9% was sentenced; Wechat internal test, the same mobile phone number can register two account functions; 2022 fields Awards an
【论文解读】用于白内障分级/分类的机器学习技术
The mail command is used in combination with the pipeline command statement
Swagger UI tutorial API document artifact
Common doubts about the introduction of APS by enterprises
ICML 2022 | Flowformer: 任务通用的线性复杂度Transformer
随机推荐
正则表达式收集
Taylor series fast Fourier transform (FFT)
Reviewer dis's whole research direction is not just reviewing my manuscript. What should I do?
Intel 48 core new Xeon run point exposure: unexpected results against AMD zen3 in 3D cache
C # use Oracle stored procedure to obtain result set instance
Deployment of external server area and dual machine hot standby of firewall Foundation
##无yum源安装spug监控
Pinduoduo lost the lawsuit, and the case of bargain price difference of 0.9% was sentenced; Wechat internal test, the same mobile phone number can register two account functions; 2022 fields Awards an
KDD 2022 | 通过知识增强的提示学习实现统一的对话式推荐
Common doubts about the introduction of APS by enterprises
[diy] how to make a personalized radio
How to implement common frameworks
OSPF多区域配置
2022 construction electrician (special type of construction work) free test questions and construction electrician (special type of construction work) certificate examination
[weekly pit] calculate the sum of primes within 100 + [answer] output triangle
Hardware development notes (10): basic process of hardware development, making a USB to RS232 module (9): create ch340g/max232 package library sop-16 and associate principle primitive devices
[MySQL] trigger
Swagger UI tutorial API document artifact
Minimum cut edge set of undirected graph
(work record) March 11, 2020 to March 15, 2021