当前位置:网站首页>43 cas d'analyse du réseau neuronal MATLAB: chapitre 7 régression du réseau RBF - - réalisation de la régression fonctionnelle non linéaire
43 cas d'analyse du réseau neuronal MATLAB: chapitre 7 régression du réseau RBF - - réalisation de la régression fonctionnelle non linéaire
2022-06-12 08:42:00 【Mozun 2020】
《MATLAB Réseau neuronal43Études de cas》:No7Chapitre RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
1. Préface
《MATLAB Réseau neuronal43Études de cas》- Oui.MATLABForum technique(www.matlabsky.com)Planification,Dirigé par M. Wang Xiaochuan,2013Publié par Beijing University of Aeronautics and Astronautics PressMATLABUn livre d'outilsMATLABExemples de livres d'enseignement,Oui.《MATLABRéseau neuronal30Études de cas》Modifié sur la base de、Complémentaire,Tiens bon.“Explication théorique—Analyse de cas—Extension de l'application”Cette caractéristique,Aide le lecteur à être plus intuitif、Apprendre les réseaux neuronaux de façon vivante.
《MATLABRéseau neuronal43Études de cas》Total43Chapitre,Le contenu couvre les réseaux neuronaux communs(BP、RBF、SOM、Hopfield、Elman、LVQ、Kohonen、GRNN、NARXAttendez.)Et algorithmes intelligents connexes(SVM、Arbre de décision、Forêt aléatoire、Machine d'apprentissage extrême, etc.).En même temps,Certains chapitres traitent également des algorithmes d'optimisation communs(Algorithmes génétiques、Algorithme de colonie de fourmis, etc.)Problèmes de combinaison avec les réseaux neuronaux.En outre,《MATLABRéseau neuronal43Études de cas》A également présentéMATLAB R2012b Nouvelles fonctions et caractéristiques de la boîte à outils du réseau neuronal central , Comme le calcul parallèle du réseau neuronal 、 Réseau neuronal personnalisé 、 Programmation efficace des réseaux neuronaux, etc .
Avec l'essor de la recherche sur l'intelligence artificielle ces dernières années , Les réseaux neuronaux ont également connu une nouvelle vague de recherche , En raison de sa performance exceptionnelle dans le domaine du traitement des signaux , La méthode des réseaux neuronaux est également appliquée en profondeur dans diverses applications de la voix et de l'image , Cet article combine les cas du livre , La réalisation de la simulation , C'est aussi une sorte de réapprentissage , J'espère que vous pourrez garder vos connaissances , Renforcer et améliorer sa compréhension et sa pratique de l'application de la méthode des réseaux neuronaux dans divers domaines . J'ai commencé ce livre en attrapant plus de poissons , Voici un exemple de simulation , Principalement pour introduire l'exemple d'application du code source dans chaque chapitre ,Cet article est principalement basé surMATLAB2015b(32Bits) Réalisation de la simulation de plate - forme , C'est le chapitre 7 de ce livre RBF Exemple de régression du réseau ,Pas grand - chose à dire,C'est parti.!
2. MATLAB Exemple de simulation I
Ouvre.MATLAB,Cliquez sur“Page d'accueil”,Cliquez sur“Ouvre.”, Exemple de fichier trouvé 
Sélectionnerchapter7_1.m,Cliquez sur“Ouvre.”
chapter7_1.mLe code source est le suivant::
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%Fonction:RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
%Environnement:Win7,Matlab2015b
%Modi: C.S
%Temps:2022-06-09
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%% MatlabRéseau neuronal43Études de cas
% RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
% by Wang Xiaochuan(@Wang Xiaochuan_matlab)
% http://www.matlabsky.com
% Email:[email protected]163.com
% http://weibo.com/hgsz2003
%% Vider les variables d'environnement
clc
clear
%% Générer des entrées Données de sortie
tic
% Définir la taille de l'étape
interval=0.01;
% Produirex1 x2
x1=-1.5:interval:1.5;
x2=-1.5:interval:1.5;
% Obtenez d'abord la valeur de fonction correspondante en fonction de la fonction , Comme sortie du réseau .
F =20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);
%% Création de réseaux et formation
% Création de réseaux Entrée comme[x1;x2],Les résultats sont les suivants:F.SpreadUtiliser par défaut.
net=newrbe([x1;x2],F)
%% Validation des effets du réseau
% Nous ramenons les données originales ,Tester les effets du réseau:
ty=sim(net,[x1;x2]);
% Nous utilisons des images pour voir comment le réseau s'adapte aux fonctions non linéaires
figure
plot3(x1,x2,F,'rd');
hold on;
plot3(x1,x2,ty,'b-.');
view(113,36)
title(' Méthode de visualisation observation précise RBF L'effet d'ajustement du réseau neuronal ')
xlabel('x1')
ylabel('x2')
zlabel('F')
grid on
toc
Terminé.,Cliquez sur“Exécution”,Démarrer la simulation, Les résultats de la simulation de sortie sont les suivants :
net =
Neural Network
name: 'Radial Basis Network, Exact'
userdata: (your custom info)
dimensions:
numInputs: 1
numLayers: 2
numOutputs: 1
numInputDelays: 0
numLayerDelays: 0
numFeedbackDelays: 0
numWeightElements: 1205
sampleTime: 1
connections:
biasConnect: [1; 1]
inputConnect: [1; 0]
layerConnect: [0 0; 1 0]
outputConnect: [0 1]
subobjects:
input: Equivalent to inputs{
1}
output: Equivalent to outputs{
2}
inputs: {
1x1 cell array of 1 input}
layers: {
2x1 cell array of 2 layers}
outputs: {
1x2 cell array of 1 output}
biases: {
2x1 cell array of 2 biases}
inputWeights: {
2x1 cell array of 1 weight}
layerWeights: {
2x2 cell array of 1 weight}
functions:
adaptFcn: (none)
adaptParam: (none)
derivFcn: 'defaultderiv'
divideFcn: (none)
divideParam: (none)
divideMode: 'sample'
initFcn: 'initlay'
performFcn: 'mse'
performParam: .regularization, .normalization
plotFcns: {
}
plotParams: {
1x0 cell array of 0 params}
trainFcn: (none)
trainParam: (none)
weight and bias values:
IW: {
2x1 cell} containing 1 input weight matrix
LW: {
2x2 cell} containing 1 layer weight matrix
b: {
2x1 cell} containing 2 bias vectors
methods:
adapt: Learn while in continuous use
configure: Configure inputs & outputs
gensim: Generate Simulink model
init: Initialize weights & biases
perform: Calculate performance
sim: Evaluate network outputs given inputs
train: Train network with examples
view: View diagram
unconfigure: Unconfigure inputs & outputs
Le temps est écoulé. 0.766958 Secondes.

3. MATLAB Exemple de simulation II
Double - cliquez sur chapter7_2.m,Ouvre.chapter7_2.mLe code source est le suivant::
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%Fonction:RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
%Environnement:Win7,Matlab2015b
%Modi: C.S
%Temps:2022-06-09
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%% MatlabRéseau neuronal43Études de cas
% RBFRetour au réseau--Réalisation de la régression fonctionnelle non linéaire
% by Wang Xiaochuan(@Wang Xiaochuan_matlab)
% http://www.matlabsky.com
% Email:[email protected]163.com
% http://weibo.com/hgsz2003
%% Vider les variables d'environnement
clc
clear
%% Produire des échantillons d'entraînement (Entrée d'entraînement,Résultats de la formation)
tic
% ld Est le nombre d'échantillons
ld=400;
% Produire2*ldLa matrice de
x=rand(2,ld);
% Oui.xConvertir en[-1.5 1.5]Entre
x=(x-0.5)*1.5*2;
% xLe premier acte dex1,Deuxième actex2.
x1=x(1,:);
x2=x(2,:);
% Calculer la sortie du réseau FValeur
F=20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);
%% ÉtablissementRBFRéseau neuronal
% Adoptionapproximate RBFRéseau neuronal.spreadPar défaut
net=newrb(x,F);
%% Établir un échantillon d'essai
% generate the testing data
interval=0.1;
[i, j]=meshgrid(-1.5:interval:1.5);
row=size(i);
tx1=i(:);
tx1=tx1';
tx2=j(:);
tx2=tx2';
tx=[tx1;tx2];
%% Utilisez le RBF Le réseau simule , Obtenir la sortie du réseau
ty=sim(net,tx);
%% Utiliser des images,Dessinez.3 Vitu
% Une vraie image de fonction
interval=0.1;
[x1, x2]=meshgrid(-1.5:interval:1.5);
F = 20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);
subplot(1,3,1)
mesh(x1,x2,F);
zlim([0,60])
title(' Une vraie image de fonction ')
% Une image fonctionnelle du réseau
v=reshape(ty,row);
subplot(1,3,2)
mesh(i,j,v);
zlim([0,60])
title('RBFRésultats du réseau neuronal')
% Image d'erreur
subplot(1,3,3)
mesh(x1,x2,F-v);
zlim([0,60])
title(' Image d'erreur ')
set(gcf,'position',[300 ,250,900,400])
toc
Cliquez sur“Exécution”,Démarrer la simulation, Les résultats de la simulation de sortie sont les suivants :
NEWRB, neurons = 0, MSE = 111.628
NEWRB, neurons = 50, MSE = 4.70402
NEWRB, neurons = 100, MSE = 0.00159245
NEWRB, neurons = 150, MSE = 1.23329e-05
NEWRB, neurons = 200, MSE = 5.13919e-07
NEWRB, neurons = 250, MSE = 1.7818e-07
NEWRB, neurons = 300, MSE = 5.68933e-08
NEWRB, neurons = 350, MSE = 3.98896e-08
NEWRB, neurons = 400, MSE = 3.84391e-08
Le temps est écoulé. 8.069210 Secondes.

4. Résumé
RBF(Radial Basis Function, Fonction de base radiale) Les réseaux en général , Est un réseau neuronal d'alimentation à une seule couche cachée , Il utilise la fonction de base radiale comme fonction d'activation des neurones de la couche cachée , La couche de sortie est une combinaison linéaire de la sortie des neurones de la couche cachée . Dans ma chronique 《Apprentissage des machines visuelles20Allez.-MATLABExemple de code source》 Est également présenté dans ,RBFInSVM Est également intégré en tant que fonction du noyau , Je veux me référer à RBF L'application du réseau dans l'apprentissage des machines visuelles , Voir le lien à la fin du texte pour des exemples spécifiques . Intéressé par le contenu de ce chapitre ou désireux d'en apprendre davantage , Il est recommandé d'étudier le chapitre 7 du livre . Certains de ces points de connaissance seront complétés ultérieurement sur la base de leur propre compréhension ,Bienvenue à apprendre et à communiquer ensemble.
边栏推荐
- Difference between binary GB and gib
- Hands on deep learning -- weight decay and code implementation
- Error: ER_ NOT_ SUPPORTED_ AUTH_ MODE: Client does not support authentication protocol requested ... ...
- Shell basic syntax -- arithmetic operation
- Arrays in JS
- Method to limit the input box to only numbers
- (p15-p16) optimization of the right angle bracket of the template and the default template parameters of the function template
- Record the first step pit of date type
- 2022.6.11-----leetcode. nine hundred and twenty-six
- 在Tensorflow中把Tensor转换为ndarray时,循环中不断调用run或者eval函数,代码运行越来越慢!
猜你喜欢
![[compilation principle] understand BNF](/img/64/9a0e7507606781336fdc44116ba423.jpg)
[compilation principle] understand BNF

ctfshow web4

Hands on learning and deep learning -- simple implementation of softmax regression

Why should enterprises implement MES? What are the specific operating procedures?

Regular expressions in JS

Bean的作用域

Installation series of ROS system (II): ROS rosdep init/update error reporting solution

QT realizes multi screen and multi-resolution adaptation

Hands on deep learning 18 -- model selection + over fitting and under fitting and code implementation

Database foundation -- normalization and relational schema
随机推荐
Background attribute compound writing
Calling stored procedures in mysql, definition of variables,
Regularization to limit the number of digits after the decimal point of an input number
What should be paid attention to when establishing MES system? What benefits can it bring to the enterprise?
The residual pressure monitoring system ensures the smoothness of the fire evacuation passage in case of fire, and protects the safe operation of large high-rise buildings and the safety of people's l
Dynamic segment tree leetcode six hundred and ninety-nine
安科瑞消防应急照明和疏散指示系统
Specify 404 and 500 error reporting pages.
Code generation tool Autocode for XML Publishing
Hands on learning and deep learning -- a brief introduction to softmax regression
Webrtc series - mobile terminal hardware coding supports simulcast
Production scheduling status of manufacturing enterprises and solutions of APS system
Build personal blog and web.
Regular verification user name
Regular expressions in JS
The era of post MES system has come gradually
You have an error in your SQL syntax; use near ‘and title=‘xxx‘‘ at line 5
In the era of intelligent manufacturing, how do enterprises carry out digital transformation
Hands on deep learning -- discarding method and its code implementation
Shell basic syntax -- arithmetic operation