当前位置:网站首页>Avenue to Jane | Comment concevoir un vit pour configurer l'auto - attraction est - il le plus raisonnable?

Avenue to Jane | Comment concevoir un vit pour configurer l'auto - attraction est - il le plus raisonnable?

2022-06-11 14:27:00 Tom Hardy.

Cliquez en haut“Atelier de vision informatique”,Sélectionner“Étoile”

Première livraison de marchandises sèches

7b9648fe1bb0a19e48a8ffdafdfa81c4.png

Auteur 丨ChaucerG

Source 丨 collection de livres intelligents

5d078865dab2e9dc5c7c834a3ba6ddf0.png

TransformerEst devenu l'une des principales architectures de l'apprentissage profond,Surtout en tant que réseau neuronal convolutif dans la vision par ordinateur (CNN) Une alternative puissante à.Et pourtant,Parce queSelf-AttentionComplexité quadratique dans la représentation des longues séquences,En particulier pour les missions de prévision intensive à haute résolution,Travaux antérieursTransformerLa formation et le raisonnement peuvent être très coûteux.À cette fin,,Nous proposons une nouvelle vision avec moins d'attentionTransformer(LIT),Basé surTransformersMoyen et précoceSelf-AttentionToujours concentré sur le mode local,Et dans la vision stratifiée la plus procheTransformers Moins d'avantages .

Plus précisément,, Une stratification est proposée Transformer, Utiliser un perceptron multicouche pur (MLP) Codage de modèles locaux riches à un stade précoce ,Application simultanéeSelf-Attention Les modules capturent des dépendances plus longues à des niveaux plus profonds .En outre,Un autre type de Learned Deformable Token Merging Module, Fusion adaptative non uniforme de l'information Patch.

Proposition LIT Dans la tâche de reconnaissance d'image (Inclure la classification des images、Détection d'objets et Segmentation d'instances) Des performances remarquables ont été obtenues , Peut être un pilier puissant pour de nombreuses tâches visuelles .

Open Source Address:https://github.com/zhuang-group/LIT

1Introduction

TransformersDans le traitement du langage naturel(NLP) Et plus récemment dans Computer Vision (CV) Des progrès considérables ont été accomplis dans ce domaine. .SousCNN Inspiration de la conception pyramidale moyenne , Convertisseur visuel stratifié le plus proche (HVT)Oui.Transformer BlockDivisé en plusieurs étapes, Et à mesure que le réseau s'approfondit, la carte des caractéristiques diminue .Et pourtant, Les premières cartes à haute résolution ont donné lieu à de longues tokenSéquence,Parce queSelf-AttentionLa complexité quadratique de, Avec des coûts de calcul énormes et une consommation de mémoire .Par exemple,La taille est56×56×96 Les caractéristiques de Multi-Head Self-Attention(MSA)Besoins moyens2.0G FLOPs,EtResNet-18 Tout le modèle de 1.8G FLOPs. Les coûts de calcul sont si élevés que Transformer Il devient très difficile de l'appliquer à un large éventail de tâches de vision par ordinateur .

InHVTLes premières étapes, Des efforts ont été faits pour réduire les coûts de calcul .Par exemple, Une partie du travail a été réduite MSAEn couchesSelf-Attention Head Le nombre de Transformer BlockNombre de. Une autre ligne de travail suggère un compromis par approximation heuristique MSA Précision et efficacité , Comme la réduction de l'attention spatiale (SRA)Et sur la baseShift Window Multi-Head Self-Attention(SW-MSA). Il y a aussi des études sur l'utilisation de couches de convolution lorsque la résolution d'une carte caractéristique est assez grande .Et pourtant,Adoption précoceSelf-Attention On ne sait toujours pas dans quelle mesure les couches contribuent au rendement Final .

Dans cet article, nous proposons Less attention Vision Transformer(LIT) Pour résoudre ce qui précède HVTQuestions.Plus précisément,, Il est recommandé de StageUtiliserMLP Couche pour saisir l'information locale , Introduction simultanée d'un nombre suffisant de HeadPour gérerMSA Dépendance à long terme à la fin de la strate .

La motivation de l'auteur vient de 2Aspects.Tout d'abord,,PrécédentCNNEtTransformerDes études pertinentes ont montré que, La couche superficielle du modèle se concentrera sur l'information locale , La profondeur tend à saisir des relations sémantiques ou globales de haut niveau , C'est ce qui s'est produit au début StageEst - il nécessaire d'utiliserSelf-AttentionLa question de.Deuxièmement,, D'un point de vue théorique , Un avec assez de HeadDeSelf-Attention L'application à l'image peut représenter n'importe quel rouleau .

Et pourtant,MSA Moins dans la couche Head Théoriquement, l'approximation est bloquée avec de grandes kernel-size Capacité d'enroulement , Où les extrêmes sont 1×1Convolution Tout aussi expressif. , Peut être considéré comme une norme appliquée indépendamment à chaque pixel FCCouche.Bien que récemmentHVT Peu de Head Pour fournir une représentation pyramidale , Mais l'auteur pense que ce n'est pas optimal , Parce qu'une telle configuration entraîne des coûts de calcul et de mémoire élevés , Mais les avantages sont minimes. .

Il convient de souligner que, Par le biais de StageUtilisationMLP BlockPeut être évitéSelf-Attention Coûts de calcul importants et empreinte mémoire générée sur les cartes à haute résolution .En outre,À un stade ultérieurStageApplicationSelf-Attention Pour saisir les dépendances distantes .Les résultats expérimentaux montrent que, Une architecture aussi simple permet un équilibre optimal entre la performance et l'efficacité du modèle .

En outre,Le plus procheHVT Ou utiliser un rouleau standard , Soit une couche de projection linéaire est utilisée pour fusionner les Token, Conçu pour contrôler l'échelle des cartes de caractéristiques .Et pourtant, Considérant que la contribution de chaque pixel à l'unit é de sortie n'est pas la même , Cette approche a entravé Vision Transformer Représentation de la modélisation des transformations géométriques .

À cette fin,, L'auteur propose un Deformable ConvolutionsInspiréDeformable Token Merging(DTM) Module,Dans ce module, Une grille offset a été apprise pour augmenter de façon adaptative la position de l'échantillon spatial , Ensuite, les voisins des sous - fenêtres du diagramme caractéristique sont fusionnés Patch. De cette façon, vous pouvez obtenir plus d'informations sur l'échantillonnage descendant TokenPour traitement ultérieur.

Principales contributions:

  • Tout d'abord,, Les premiers MSA La couche est la plus proche HVT Petite contribution à , Et au début StageUn simpleHVTStructure, Il contient MLP Block;

  • Deuxièmement,,J'ai proposéDeformable Token MergingModule, Pour fusionner plus d'informations de manière adaptative Patch Pour fournir une représentation hiérarchique , Avec des capacités de modélisation améliorées ;

  • Enfin,Des expériences approfondies ont été menées, Pour indiquer ce qui a été proposé LIT Efficacité dans le calcul de la complexité et de la consommation de mémoire .

2Méthode de cet article

2.1 Structure générale

27040e7f1156877afbc71c106e9bfa8b.png
Fig.1

LITL'architecture globale de1Comme indiqué. Définir comme entrée RGBImages,Parmi euxHEtWIndique respectivement la hauteur et la largeur.D'abordI Diviser en non - chevauchement Patch,PatchLa taille est4×4,Donc chaquePatch La dimension caractéristique initiale de 4×4×3=48.

Et puis..., Chaque Patch Projeter dans les dimensions , Utilisé comme entrée initiale pour la procédure suivante . L'ensemble du modèle est divisé en 4- Oui.Stage.Jeans∈[1,2,3,4] En tant queStageIndex de,Dans chaqueStage Utilisez Block,Dont avant2- Oui.StageUtiliser uniquementMLP Block Pour encoder des informations locales ,Les deux derniersStageCritères d'utilisationTransformer Block Pour coder des dépendances plus longues .

Dans chaqueStage, Zoomer le diagramme de fonction d'entrée vers , Où et représentent respectivement s- Oui.Stage Taille du bloc et dimensions cachées pour .Pour la dernière2- Oui.Stage,Dans chaqueTransformer Block Set in Self-Attention heads.

2.2 LITDansBlockConception

Comme le montre la figure1Comme indiqué,LITAdoption2Types de modules:MLPModules etTransformerModule.Au débutStageApplicationMLP Block.Plus précisément,,MLP BlockFondé surMLPAu - dessus de,LeMLPPar2- Oui.FCComposition des couches,Il y aGELU.Pour la sections Chaque étape MLP, Rapport d'extension utilisé .

Plus précisément,,No1- Oui.FCLa couchetoken La dimension de ,L'autre.FC La couche réduit la dimension à .Formellement, Ordonnance no sContribution à la phase,l Index des blocs ,MLP BlockPeut être exprimé comme suit::

96519fa9e14e12e5e67f17b25b8d30bc.png

Parmi euxLN Normalisation de la couche de présentation .Dans la phase finale,ViTDécrit dansTransformer BlockContient unMSACouche et unMLP,Peut être exprimé comme suit::

fbf7be1ee5752e2245a1db3109b15550.png

L'utilisation de cette architecture 2 Principaux avantages :

  • Tout d'abord,, Évitez les premiers Stage Coûts de calcul énormes et empreinte mémoire introduite par de longues séquences ;

  • Deuxièmement,, Contrairement à l'utilisation récente de sous - fenêtres pour réduire les cartes d'attention ou réduire les cartes d'attention keyEtvalue Sur la dimension spatiale de la matrice ,A la fin2- Oui.Stage Normes de conservation MSACouche,Pour maintenirLIT Capacité de gérer les dépendances à distance .

Remarques

En considérant Couche de convolutionFCCoucheEtMSACouche La relation entre les deux pour prouver qu'au début Stage Application pure MLP BlockLe caractère raisonnable.

Il est recommandé ici de se référer à la nouvelle sortie récente de Byte Jump TRT-ViT, Avec des conclusions correspondantes , En même temps, des critères très détaillés de conception du modèle sont donnés , Les liens vers les tweets correspondants sont les suivants: :

Il est recommandé de réciter | Octets avec4 Les grandes lignes directrices vous apprennent à concevoir un CNNVitesse,Transformer Modèle de précision !

Tout d'abord,, En commençant par un examen des rouleaux standard . Faire un diagramme de caractéristiques d'entrée , Pour le poids de convolution ,Parmi euxKPourKernel-size, Et sont les dimensions des canaux d'entrée et de sortie respectivement .Par souci de simplicité,L'élément offset a été omis, Et en indiquant ,Parmi eux(i,j) Représente l'index des pixels ,.Compte tenu deK×K Noyau de convolution des emplacements d'échantillonnage ,Pixelsp La sortie de :

0990592e687909337a71d1db87e52c51.png

Où est l'indice d'échantillonnage à l'offset prédéterminé ΔK Double cartographie de .

Par exemple,OrdreΔK={(−1,−1),(−1,0),...,(0,1),(1,1)}Pour3×3Dekernel,Le taux d'expansion est de1,Etg(0)=(-1,-1)Indique le paragraphe1 Offset d'échantillonnage .QuandK=1Heure, Tenseur de poids W Équivalent à une matrice ,De faire$.Dans ce cas,,Eq(4)Peut être représentéFCCouche,Pixelsp La sortie de est définie comme :

fded63f8f93d99ed4d2a11c9eb16b8a5.png

Enfin, Laisse - le. MSADans la coucheHeadNombre,$Oui.h- Oui.HeadParamètres d'apprentissage pour. Sous un schéma de codage de position relative spécifique ,Cordonnier Et d'autres ont prouvé que les pixels pDeMSACouche La sortie de :

8e03213d2bfa4e43672d4fd67ffdd0e2.png

Il y aHead Double cartographie du déplacement des pixels .Dans ce cas,,Eq(6)Peut être considéré commeKernel-sizePour L'approximation de la couche enroulée de .

DeEqs(4)-(6)Observations, Bien qu'il y ait suffisamment de HeadDeMSA Les couches peuvent approcher n'importe quelle couche de convolution , Mais moins en théorie Head Limite la capacité de cette approximation . Comme cas extrême ,Avec unHeadDeMSA Les couches ne peuvent s'approcher que FCCouche.

Votre attention, s'il vous plaît.,MSA .En pratique, les couches ne sont certainement pas équivalentes aux laminations .Et pourtant,d'Ascoli Et d'autres ont observé ,Les premiersMSA Les couches peuvent apprendre des représentations similaires de la convolution pendant l'entraînement . Considérez le plus récent HVTAu débutStage Avec peu de Head, Ce comportement de convolution peut être limité à de petits champs de sensation .

dbc50e72e93225e26a291b065ab683cc.png

Fig. 3

Dans la figure3Moyenne, Afficher dans la visualisation PVT-S Au début de MSA La couche ne se concentre vraiment que sur query Une petite zone autour des pixels , Et leur suppression entraînerait une légère dégradation des performances , .Mais cela réduit considérablement la complexité du modèle . Ça prouve qu'avant 2- Oui.stage Application pure MLP BlockC'est raisonnable..

2.3 Deformable Token Merging

Précédemment sur HVT Le travail dépend dePatch Merge Pour réaliser la représentation pyramidale des caractéristiques .Et pourtant, Fusionner à partir de la grille des règles Patch, Et ignore que ce n'est pas tous Patch Le fait que la contribution à l'unité de sortie soit la même . Inspiré par la convolution déformable ,J'ai proposéDeformable Token Merging Module pour apprendre la grille offset , Pour échantillonner de façon adaptative plus de blocs d'information .Formellement, La Convolution déformable est exprimée comme suit: :

b874e459154b64b21d8d675be8656b4f.png

AvecEq(4) Comparaison des opérations de convolution standard dans ,DC Pour chaque décalage prédéterminé g(k) Apprendre un décalage Δg(k).ApprendreΔg(k) Nécessite une couche de convolution séparée , Il s'applique également aux diagrammes de caractéristiques d'entrée X. Pour fusionner de façon adaptative Patch,InDTM Un dans le module DCCouche,Peut être exprimé comme suit::

2787cb7b92a0c11c70b85604ea812977.png

Parmi eux BN Représente la normalisation des lots ,Et utilisé GELU.

Dans les études d'ablation, Quand la taille et la forme de l'objet changent ,DTM La position de l'échantillon est ajustée de façon adaptative , Pour bénéficier de l'offset appris .Veuillez également noter,AvecBaseline Échantillonnage en grille régulière comparé à ,LégerDTM Introduit un FLOPEt paramètres, Donc C'est le plus récent HVT Module plug - and - play pour .

3L'expérience

3.1 Expérience d'ablation

1、Effect of the architecture design

638a058077cc7596efad32f2526b4a23.png

Tableau 2

Les résultats sont présentés dans le tableau ci - dessous. 2 Comme indiqué.En général,LIT En utilisant moins FLOP(3.6G Avec 3.8G)En même temps,Oui.PVT-SDeTop-1Précision accrue0.6%.PourSwin-TiOui. FLOPs Diminution0.4G, Performances équivalentes .

Il est également intéressant de noter que,PVT-S Et Swin-Ti Réduction du nombre total de paramètres pour . Le rendement global démontre l'efficacité de l'architecture proposée , Cela souligne également les premiers MSAInPVTEtSwin Un petit avantage dans .

2、Effect of deformable token merging

0a76fd4b03e45451e9e7e42cabe48d3b.png

Tableau 3

Les résultats sont présentés dans le tableau ci - dessous. 3 Comme indiqué.Pour cela2Modèles,DTM Introduit un FLOP Et paramètres,En même temps Top-1 Les aspects de précision seront PVT-S Et Swin-Ti Amélioration 0.7% Et 0.3%.

641496cc05b19dc69de8eb634c16b6fc.png

Fig. 2

En outre,Dans la figure 2 Le décalage appris est visualisé dans .Comme le montre la figure, Avec l'unification précédente Patch MergeLes stratégies sont différentes, Avant l'unification Patch Merge La politique limite les emplacements d'échantillonnage à un rectangle vert ,DTM Selon l'échelle et la forme de l'objet (Par exemple, Les jambes de Koala 、 Queue de chat ). Cela souligne une fois de plus LIT La capacité de s'adapter à diverses transformations géométriques .

3、Effect of MSA in each stage

ab2dfb6ac91268ae12747378c25fe103.png

Les résultats sont présentés dans le tableau ci - dessous.4Comme indiqué.Tout d'abord,, Norme en service MSARemplacement des couchesPVT-SDansSRACouche postérieure,Observations Top-1 Précision accrue 1.1%,EtFLOPsPresque doublé.Ça veut direPVT Il y a un compromis entre le rendement et l'efficacité .

Et puis..., En passant devant 2 Étape par étape MSACouche,Top-1 La précision n'a diminué que séparément 0.1%、0.5%.Cela signifie PVT Au début self-attention La contribution des couches au rendement final est inférieure aux attentes , Et leur performance n'est pas plus pure que MLP Combien de couches . Cela peut être attribué au fait que les couches superficielles se concentrent davantage sur le codage de l'information locale. .

Et pourtant, On peut observer qu'à la fin 2 Étape (s) enlevée (s) self-attention Les performances temporelles diminuent considérablement .Les résultats montrent que,self-attention Les couches jouent un rôle important à un stade ultérieur , Capture de la dépendance à longue distance pour une vision stratifiée performante TransformerEssentiel.

db53dce22f30ff0c2668136018286c3e.png

Fig. 3

Pour mieux comprendre ce phénomène, Sans enlever MSA Visualisation des couches PVT-S La probabilité d'attention ,Comme le montre la figure3Comme indiqué.Tout d'abord,,No1 Affichage de la carte d'attention de la phase query Les pixels remarquent à peine les autres positions .

En2Phase,query Le champ de perception des pixels s'est légèrement élargi , Mais avec la 1 Les étapes sont similaires .Considérant quePVT-SEn1Phase seulement1- Oui.head,En2Phase seulement2- Oui.head, Cela confirme fortement l'hypothèse de l'auteur :MSA Trop peu dans la couche head Cela conduit à des champs sensoriels plus petits ,En ce momentself-attentionPresque équivalent àFCCouche.

En outre,De la fin2 Des champs sensoriels relativement grands ont été observés dans les cartes d'attention à différents stades. . Parce que les grands champs réceptifs aident souvent à modéliser des dépendances plus longues , Ça explique qu'à la fin 2 Étape (s) enlevée (s) MSA Table arrière 4 Réduction significative des performances .

3.2 Classification

c40941bec6b8a87d575c5054218eaefc.png

3.3 Détection des cibles

814041854da647f258dd4eb40bf6c662.png

3.4 Segmentation des instances

fe85f344ad1d45e374343bb86e0fd3d5.png

3.5 Segmentation sémantique

29bcb6af1c073196f7928873f94f76f3.png

4RÉFÉRENCES

[1].Less is More: Pay Less Attention in Vision Transformers

Cet article n'est destiné qu'au partage académique,En cas d'infraction,Veuillez contacter delete.

Téléchargement de marchandises sèches et apprentissage

Retour en arrière - plan:BarceloneC'est...Didacticiels de l'Université autonome,Télécharger les dépôts universitaires à l'étranger pendant plusieurs années3D VisonExcellent didacticiel

Retour en arrière - plan:Vision par ordinateurLes livres,Disponible en téléchargement3DLivres classiques dans le domaine visuelpdf

Retour en arrière - plan:3DCours de vision,Pour apprendre3DCours de qualité dans le domaine de la vision

Site officiel de l'atelier de vision informatique:3dcver.com

1.Technologie de fusion de données multi - capteurs pour la conduite automatique

2.Pour la conduite automatique3DPiste d'apprentissage de la pile complète pour la détection d'objets en nuage ponctuel!(Mode unique+Multimodal/Données+Code)
3.Reconstruction 3D complète de la vision:Analyse des principes、Explication du Code、Optimisation et amélioration
4.Le premier cours de traitement en nuage point au niveau industriel en Chine
5.Laser-La vision-IMU-GPSIntégrationSLAMTri des algorithmes et explication du Code
6.Comprendre complètement la vision-InertieSLAM:Basé surVINS-FusionC'est officiel.
7.Comprendre complètement la baseLOAMCadre3DLaserSLAM: Analyse du code source à l'optimisation de l'algorithme
8.Analyse approfondie de la pièce、Laser extérieurSLAMPrincipe de l'algorithme clé、Code et pratique(cartographer+LOAM +LIO-SAM)

9.Construire un ensemble de lumière structurée à partir de zéro3DReconstruire le système[Théorie+Code source+Pratique]

10.Méthode d'estimation de la profondeur monoculaire:Tri des algorithmes et mise en œuvre du Code

11.Déploiement d'un modèle d'apprentissage profond dans la conduite automatique

12.Modèle de caméra et étalonnage(Monoculaire+Binoculaire+Fisheye)

13.Poids lourd!Véhicule à quatre rotors:Algorithme et combat réel

14.ROS2De l'initiation à la maîtrise:Théorie et pratique

15.Le premier3DTutoriel de détection des défauts:Théorie、Code source et combat réel

Poids lourd!Atelier de vision informatique-ApprendreGroupe ACCréé

Numériser le Code pour ajouter un petit assistant Wechat,Peut demander l'adhésion3DAtelier visuel-Rédaction et contribution de documents universitaires Groupe de communication Wechat,Conçu pourRéunion de haut niveau sur la communication、Haut de la page、SCI、EIQuestions relatives à la rédaction et à la contribution.

En même tempsVous pouvez également demander à rejoindre notre groupe de communication directionnelle,Actuellement, il y a principalementORB-SLAMSérie d'apprentissage des sources、3DLa visionCV&Apprentissage profondSLAMReconstruction 3DPoint Cloud post - traitementConduite automatique、CVIntroduction、Mesure tridimensionnelle、VR/AR、3DReconnaissance faciale、Imagerie médicale、Détection des défauts、Reconnaissance des piétons、Suivi des cibles、Produits visuels au sol、Concours de vision、Reconnaissance des plaques d'immatriculation、Sélection du matériel、Estimation de la profondeur、Échanges universitaires、Échanges de recherche d'emploiGroupe isowechat,.S'il vous plaît, Scannez le micro - signal ci - dessous et groupez,Remarques:”Orientation de la recherche+L'école/Entreprises+Un surnom.“,Par exemple:”3DLa vision + Shanghai Jiaotong University + Silence.“.Veuillez noter selon le format,Sinon, il ne passera pas.Une fois l'ajout réussi, les groupes Wechat pertinents seront invités en fonction de l'orientation de la recherche.Contributions originalesVeuillez également contacter.

ec5b2388798ee6107c72c565bb74934a.png

▲Presse longue plus Groupe Wechat ou contribution

9b0b59e6b77d7c3f32c255205b17b7f6.png

▲Appuyez sur le bouton "attention au public"

3DLa vision passe de l'initiation à la maîtrise de la planète de la connaissance:Pour3DDans le domaine visuelCours de vidéoCheng(Série de reconstruction 3DSérie de nuages ponctuels 3DSérie de lumière structuréeÉtalonnage main - oeilÉtalonnage de la caméraLaser/La visionSLAMAutomatiqueConduite, etc.)、Résumé des points de connaissance、Parcours d'apprentissage avancé d'entrée、Mise à jourpaperPartager、Réponses aux questionsCinq aspects du travail profond du sol,En outre, les ingénieurs d'algorithmes de toutes sortes de grandes usines fournissent des conseils techniques.En même temps,,Planet sera publié conjointement avec des entreprises bien connues3DInformation sur le poste de développement d'algorithmes visuels et l'amarrage des projets,Créer une zone de rassemblement de fans de fer intégrant la technologie et l'emploi,Proche4000Les membres de la planète créent de meilleuresAIProgrès communs dans le monde,Portail de la planète de la connaissance:

Apprendre3DTechnologie de base de la vision,Aperçu de la numérisation,3Remboursement inconditionnel dans les jours

a9aa0a14958548cb0a56559e5dea033c.png

 Il y a des tutoriels de haute qualité dans le cercle、Répondre aux questions et répondre aux questions、Vous aider à résoudre vos problèmes efficacement

J'ai trouvé ça utile.,Un compliment, s'il vous plaît.~ 

原网站

版权声明
本文为[Tom Hardy.]所创,转载请带上原文链接,感谢
https://yzsam.com/2022/162/202206111412233911.html