当前位置:网站首页>43 cas d'analyse du réseau neuronal MATLAB: chapitre 7 régression du réseau RBF - - réalisation de la régression fonctionnelle non linéaire
43 cas d'analyse du réseau neuronal MATLAB: chapitre 7 régression du réseau RBF - - réalisation de la régression fonctionnelle non linéaire
2022-06-12 08:42:00 【Mozun 2020】
《MATLAB Réseau neuronal43Études de cas》:No7Chapitre RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
1. Préface
《MATLAB Réseau neuronal43Études de cas》- Oui.MATLABForum technique(www.matlabsky.com)Planification,Dirigé par M. Wang Xiaochuan,2013Publié par Beijing University of Aeronautics and Astronautics PressMATLABUn livre d'outilsMATLABExemples de livres d'enseignement,Oui.《MATLABRéseau neuronal30Études de cas》Modifié sur la base de、Complémentaire,Tiens bon.“Explication théorique—Analyse de cas—Extension de l'application”Cette caractéristique,Aide le lecteur à être plus intuitif、Apprendre les réseaux neuronaux de façon vivante.
《MATLABRéseau neuronal43Études de cas》Total43Chapitre,Le contenu couvre les réseaux neuronaux communs(BP、RBF、SOM、Hopfield、Elman、LVQ、Kohonen、GRNN、NARXAttendez.)Et algorithmes intelligents connexes(SVM、Arbre de décision、Forêt aléatoire、Machine d'apprentissage extrême, etc.).En même temps,Certains chapitres traitent également des algorithmes d'optimisation communs(Algorithmes génétiques、Algorithme de colonie de fourmis, etc.)Problèmes de combinaison avec les réseaux neuronaux.En outre,《MATLABRéseau neuronal43Études de cas》A également présentéMATLAB R2012b Nouvelles fonctions et caractéristiques de la boîte à outils du réseau neuronal central , Comme le calcul parallèle du réseau neuronal 、 Réseau neuronal personnalisé 、 Programmation efficace des réseaux neuronaux, etc .
Avec l'essor de la recherche sur l'intelligence artificielle ces dernières années , Les réseaux neuronaux ont également connu une nouvelle vague de recherche , En raison de sa performance exceptionnelle dans le domaine du traitement des signaux , La méthode des réseaux neuronaux est également appliquée en profondeur dans diverses applications de la voix et de l'image , Cet article combine les cas du livre , La réalisation de la simulation , C'est aussi une sorte de réapprentissage , J'espère que vous pourrez garder vos connaissances , Renforcer et améliorer sa compréhension et sa pratique de l'application de la méthode des réseaux neuronaux dans divers domaines . J'ai commencé ce livre en attrapant plus de poissons , Voici un exemple de simulation , Principalement pour introduire l'exemple d'application du code source dans chaque chapitre ,Cet article est principalement basé surMATLAB2015b(32Bits) Réalisation de la simulation de plate - forme , C'est le chapitre 7 de ce livre RBF Exemple de régression du réseau ,Pas grand - chose à dire,C'est parti.!
2. MATLAB Exemple de simulation I
Ouvre.MATLAB,Cliquez sur“Page d'accueil”,Cliquez sur“Ouvre.”, Exemple de fichier trouvé 
Sélectionnerchapter7_1.m,Cliquez sur“Ouvre.”
chapter7_1.mLe code source est le suivant::
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%Fonction:RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
%Environnement:Win7,Matlab2015b
%Modi: C.S
%Temps:2022-06-09
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%% MatlabRéseau neuronal43Études de cas
% RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
% by Wang Xiaochuan(@Wang Xiaochuan_matlab)
% http://www.matlabsky.com
% Email:[email protected]163.com
% http://weibo.com/hgsz2003
%% Vider les variables d'environnement
clc
clear
%% Générer des entrées Données de sortie
tic
% Définir la taille de l'étape
interval=0.01;
% Produirex1 x2
x1=-1.5:interval:1.5;
x2=-1.5:interval:1.5;
% Obtenez d'abord la valeur de fonction correspondante en fonction de la fonction , Comme sortie du réseau .
F =20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);
%% Création de réseaux et formation
% Création de réseaux Entrée comme[x1;x2],Les résultats sont les suivants:F.SpreadUtiliser par défaut.
net=newrbe([x1;x2],F)
%% Validation des effets du réseau
% Nous ramenons les données originales ,Tester les effets du réseau:
ty=sim(net,[x1;x2]);
% Nous utilisons des images pour voir comment le réseau s'adapte aux fonctions non linéaires
figure
plot3(x1,x2,F,'rd');
hold on;
plot3(x1,x2,ty,'b-.');
view(113,36)
title(' Méthode de visualisation observation précise RBF L'effet d'ajustement du réseau neuronal ')
xlabel('x1')
ylabel('x2')
zlabel('F')
grid on
toc
Terminé.,Cliquez sur“Exécution”,Démarrer la simulation, Les résultats de la simulation de sortie sont les suivants :
net =
Neural Network
name: 'Radial Basis Network, Exact'
userdata: (your custom info)
dimensions:
numInputs: 1
numLayers: 2
numOutputs: 1
numInputDelays: 0
numLayerDelays: 0
numFeedbackDelays: 0
numWeightElements: 1205
sampleTime: 1
connections:
biasConnect: [1; 1]
inputConnect: [1; 0]
layerConnect: [0 0; 1 0]
outputConnect: [0 1]
subobjects:
input: Equivalent to inputs{
1}
output: Equivalent to outputs{
2}
inputs: {
1x1 cell array of 1 input}
layers: {
2x1 cell array of 2 layers}
outputs: {
1x2 cell array of 1 output}
biases: {
2x1 cell array of 2 biases}
inputWeights: {
2x1 cell array of 1 weight}
layerWeights: {
2x2 cell array of 1 weight}
functions:
adaptFcn: (none)
adaptParam: (none)
derivFcn: 'defaultderiv'
divideFcn: (none)
divideParam: (none)
divideMode: 'sample'
initFcn: 'initlay'
performFcn: 'mse'
performParam: .regularization, .normalization
plotFcns: {
}
plotParams: {
1x0 cell array of 0 params}
trainFcn: (none)
trainParam: (none)
weight and bias values:
IW: {
2x1 cell} containing 1 input weight matrix
LW: {
2x2 cell} containing 1 layer weight matrix
b: {
2x1 cell} containing 2 bias vectors
methods:
adapt: Learn while in continuous use
configure: Configure inputs & outputs
gensim: Generate Simulink model
init: Initialize weights & biases
perform: Calculate performance
sim: Evaluate network outputs given inputs
train: Train network with examples
view: View diagram
unconfigure: Unconfigure inputs & outputs
Le temps est écoulé. 0.766958 Secondes.

3. MATLAB Exemple de simulation II
Double - cliquez sur chapter7_2.m,Ouvre.chapter7_2.mLe code source est le suivant::
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%Fonction:RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
%Environnement:Win7,Matlab2015b
%Modi: C.S
%Temps:2022-06-09
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%% MatlabRéseau neuronal43Études de cas
% RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
% by Wang Xiaochuan(@Wang Xiaochuan_matlab)
% http://www.matlabsky.com
% Email:[email protected]163.com
% http://weibo.com/hgsz2003
%% Vider les variables d'environnement
clc
clear
%% Produire des échantillons d'entraînement (Entrée d'entraînement,Résultats de la formation)
tic
% ld Est le nombre d'échantillons
ld=400;
% Produire2*ldLa matrice de
x=rand(2,ld);
% Oui.xConvertir en[-1.5 1.5]Entre
x=(x-0.5)*1.5*2;
% xLe premier acte dex1,Deuxième actex2.
x1=x(1,:);
x2=x(2,:);
% Calculer la sortie du réseau FValeur
F=20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);
%% ÉtablissementRBFRéseau neuronal
% Adoptionapproximate RBFRéseau neuronal.spreadPar défaut
net=newrb(x,F);
%% Établir un échantillon d'essai
% generate the testing data
interval=0.1;
[i, j]=meshgrid(-1.5:interval:1.5);
row=size(i);
tx1=i(:);
tx1=tx1';
tx2=j(:);
tx2=tx2';
tx=[tx1;tx2];
%% Utilisez le RBF Le réseau simule , Obtenir la sortie du réseau
ty=sim(net,tx);
%% Utiliser des images,Dessinez.3 Vitu
% Une vraie image de fonction
interval=0.1;
[x1, x2]=meshgrid(-1.5:interval:1.5);
F = 20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);
subplot(1,3,1)
mesh(x1,x2,F);
zlim([0,60])
title(' Une vraie image de fonction ')
% Une image fonctionnelle du réseau
v=reshape(ty,row);
subplot(1,3,2)
mesh(i,j,v);
zlim([0,60])
title('RBFRésultats du réseau neuronal')
% Image d'erreur
subplot(1,3,3)
mesh(x1,x2,F-v);
zlim([0,60])
title(' Image d'erreur ')
set(gcf,'position',[300 ,250,900,400])
toc
Cliquez sur“Exécution”,Démarrer la simulation, Les résultats de la simulation de sortie sont les suivants :
NEWRB, neurons = 0, MSE = 111.628
NEWRB, neurons = 50, MSE = 4.70402
NEWRB, neurons = 100, MSE = 0.00159245
NEWRB, neurons = 150, MSE = 1.23329e-05
NEWRB, neurons = 200, MSE = 5.13919e-07
NEWRB, neurons = 250, MSE = 1.7818e-07
NEWRB, neurons = 300, MSE = 5.68933e-08
NEWRB, neurons = 350, MSE = 3.98896e-08
NEWRB, neurons = 400, MSE = 3.84391e-08
Le temps est écoulé. 8.069210 Secondes.

4. Résumé
RBF(Radial Basis Function, Fonction de base radiale) Les réseaux en général , Est un réseau neuronal d'alimentation à une seule couche cachée , Il utilise la fonction de base radiale comme fonction d'activation des neurones de la couche cachée , La couche de sortie est une combinaison linéaire de la sortie des neurones de la couche cachée . Dans ma chronique 《Apprentissage des machines visuelles20Allez.-MATLABExemple de code source》 Est également présenté dans ,RBFInSVM Est également intégré en tant que fonction du noyau , Je veux me référer à RBF L'application du réseau dans l'apprentissage des machines visuelles , Voir le lien à la fin du texte pour des exemples spécifiques . Intéressé par le contenu de ce chapitre ou désireux d'en apprendre davantage , Il est recommandé d'étudier le chapitre 7 du livre . Certains de ces points de connaissance seront complétés ultérieurement sur la base de leur propre compréhension ,Bienvenue à apprendre et à communiquer ensemble.
边栏推荐
- 报错:文件夹在另一个程序中打开无法删除怎么办
- 了结非对称密钥
- Hands on learning and deep learning -- Realization of linear regression from scratch
- Calling stored procedures in mysql, definition of variables,
- ctfshow web 1-2
- How to understand the production scheduling of APS system?
- Engineers learn music theory (II) scale and tendency
- What is the beauty of MES equipment management for enterprises?
- Py & go programming skills: logic control to avoid if else
- The difference between deep copy and shallow copy
猜你喜欢

QT realizes multi screen and multi-resolution adaptation

Regularization to limit the number of digits after the decimal point of an input number

Hands on deep learning -- image classification dataset fashion MNIST

【指针进阶三】实现C语言快排函数qsort&回调函数

Scope of bean

Background position - exact units
![[essence] explain in detail the memory management mechanism in QT](/img/7d/0d83158c6b0574dd3b3547b47af67e.jpg)
[essence] explain in detail the memory management mechanism in QT
![[dynamic memory management] malloc & calloc and realloc and written test questions and flexible array](/img/d2/a6276d8415c46124920395df5651d1.png)
[dynamic memory management] malloc & calloc and realloc and written test questions and flexible array
![[advanced pointer I] character array & array pointer & pointer array](/img/ea/150b2162e4e1641eee7e852935d101.png)
[advanced pointer I] character array & array pointer & pointer array
![[compilation principle] understand BNF](/img/64/9a0e7507606781336fdc44116ba423.jpg)
[compilation principle] understand BNF
随机推荐
Engineers learn music theory (I) try to understand music
报错:文件夹在另一个程序中打开无法删除怎么办
Build personal blog and web.
QT realizes multi screen and multi-resolution adaptation
Is it really expensive for enterprises to launch MES software?
Audio and video related links
进制GB和GiB的区别
Arrays in JS
What scheduling rules does the APS software have? What is the exception handling scheme?
2022.6.11-----leetcode. nine hundred and twenty-six
Centos8 installing MySQL 8.0 (upper)
JVM learning notes: three local method interfaces and execution engines
Website colab and kaggle
在Tensorflow中把Tensor转换为ndarray时,循环中不断调用run或者eval函数,代码运行越来越慢!
Encapsulate the amount input box component.
Installation of Shengxin R package
ctfshow web4
MES helps enterprises to transform intelligently and improve the transparency of enterprise production
The era of post MES system has come gradually
R loop assignment variable name