matlab 神经元网络newff用来建立什么神经网络

[转载]matlab神经网络newff函数的使用
设[P,T]是训练样本,[X,Y]是测试样本;
net=newrb(P,T,err_goal,spread); %建立网络
q=sim(net,p);
plot(p,q); %画训练误差曲线
q=sim(net,X);
plot(X,q); %画测试误差曲线
训练前馈网络的第一步是建立网络对象。函数newff建立一个可训练的前馈网络。这需要4个输入参数。
第一个参数是一个Rx2的矩阵以定义R个输入向量的最小值和最大值。
第二个参数是一个设定每层神经元个数的数组。
第三个参数是包含每层用到的传递函数名称的细胞数组。
最后一个参数是用到的训练函数的名称。
举个例子,下面命令将创建一个二层网络。它的输入是两个元素的向量,第一层有三个神经元(3),第二层有一个神经元(1)。
第一层的传递函数是tan-sigmoid,输出层的传递函数是linear。
输入向量的第一个元素的范围是-1到2[-1 2],输入向量的第二个元素的范围是0到5[0 5],训练函数是traingd。
  net=newff([-1 2; 0
5],[3,1],{'tansig','purelin'},'traingd');
这个命令建立了网络对象并且初始化了网络权重和偏置,因此网络就可以进行训练了。
我们可能要多次重新初始化权重或者进行自定义的初始化。
下面就是初始化的详细步骤。
  在训练前馈网络之前,权重和偏置必须被初始化。初始化权重和偏置的工作用命令init来实现。这个函数接收网络对象并初始化权重和偏置后返回网络对象。
下面就是网络如何初始化的:
  net = init(net);
  我们可以通过设定网络参数net.initFcn和net.layer{i}.initFcn这一技巧来初始化一个给定的网络。
net.initFcn用来决定整个网络的初始化函数。前馈网络的缺省值为initlay,它允许每一层用单独的初始化函数。
设定了net.initFcn ,那么参数net.layer{i}.initFcn 也要设定用来决定每一层的初始化函数。
  对前馈网络来说,有两种不同的初始化方式经常被用到:initwb和initnw。initwb函数根据每一层自己的初始化参数(net.inputWeights{i,j}.initFcn)初始化权重矩阵和偏置。前馈网络的初始化权重通常设为rands,它使权重在-1到1之间随机取值。这种方式经常用在转换函数是线性函数时。initnw通常用于转换函数是曲线函数。它根据Nguyen和Widrow[NgWi90]为层产生初始权重和偏置值,使得每层神经元的活动区域能大致平坦的分布在输入空间。
它比起单纯的给权重和偏置随机赋值有以下优点:
(1)减少神经元的浪费(因为所有神经元的活动区域都在输入空间内)。
(2)有更快的训练速度(因为输入空间的每个区域都在活动的神经元范围中)。
  初始化函数被newff所调用。因此当网络创建时,它根据缺省的参数自动初始化。init不需要单独的调用。可是我们可能要重新初始化权重和偏置或者进行自定义的初始化。例如,我们用newff创建的网络,它缺省用initnw来初始化第一层。如果我们想要用rands重新初始化第一层的权重和偏置,我们用以下命令:
  net.layers{1}.initFcn = 'initwb';
  net.inputWeights{1,1}.initFcn = 'rands';
  net.biases{1,1}.initFcn = 'rands';
  net.biases{2,1}.initFcn = 'rands';
  net = init(net);
IW: 输入层到隐含层的权重矩阵
LW: 隐含层和输出层间的权重矩阵
b: 阀值向量
如网络为net, 输入层和输出均为一个接点情况下,则用
net.IW{1,1}可以看到第一个输入接点到第一隐含层的权重向量;
net.LW{2,1}可以看到隐含层到输出层的权值向量;
net.b{1,1}是隐含层的阀值向量,
net.b{2,1}是输出接点的阀值;
- matlab&newff使用_macrohorse_新浪博客
在多输入输出下先用
查看各矩阵结构,再相应用net.IW{?,?}等语句查到相关的向量
______________________________________________________________________________________________
%define the input and output
p= [974 874 527;
388 466 1764;
t=[ 34548];
% 创建bp网络和定义训练函数
% 这里是为了方便而建立一个矩阵,注意是12x2,不是3x2
pr=[ 527 974;
net=newff(pr,[15,1],{'tansig' 'purelin'},'trainlm');
%这里要加入输出层的转移函数,一般是trainlm
net.trainparam.goal=50;
net.trainparam.epochs=5000;
%训练神经网络
[net,tr]=train(net,p,t);
%输出训练后的权值和阈值
iw1=net.IW{1};
b1=net.b{1};
lw2=net.LW{2};
b2=net.b{2};
%存储训练好的神经网络
save netkohler net
______________________________________________________________________________________________
怎样知道matlab已经训练好的神经网络的权值、步长以及阙值
用matlab训练神经网络时不需输入权值、步长以及阙值,如果我想知道matlab已经训练好的神经网络的权值、步长以及阙值该怎末操作?
训练好的权值、阈值的输出方法是:
输入到隐层权值: w1=net.iw{1,1}
隐层阈值: theta1=net.b{1}
隐层到输出层权值: w2=net.lw{2,1};
输出层阈值: theta2=net.b{2}
______________________________________________________________________________________________
帮我看看matlab的这段程序(有关神经网络BP算法)
在一位老师的讲义上看到的程序,但是有些东西不太明白,请求帮助
程序如下:
****************************************************************
figure(gcf)
%NEWFF — 建立一个BP网络
%TRAIN — 对BP网络进行训练
%SIM — 对BP网络进行仿真
P = -1:0.1:1;
T = [-.9602 -.5770 -. . .4609 ...
.1336 -.2013 -.4344 -.5000 -.3930 -. ...
. . -.0312 -.2189 -.3201];
plot(P,T,'+');
title('Training Vectors');
xlabel('Input Vector P');
ylabel('Target Vector T');
net=newff(minmax(P),[5 1],{'tansig'
'purelin'},'traingd','learngd','sse');
net.iw{1,1} = [3.0; 3.0; 3.5000];
net.b{1} = [-2.4; -0.3; 2.8722];
net.lw{2,1} = [0.5 -0.1 -0.1718];
net.b{2} = [0.1326];
net.iw{1,1}
net.lw{2,1}
net.trainParam.show=10;
net.trainParam.goal=0.02;
net.trainParam.lr=0.01;
A=sim(net,P);
sse=sumsqr(T-A);
for i=1:me/100
if sse&net.trainparam.goal,i=i-1;break,end
net.trainParam.epochs=100;
[net,tr]=train(net,P,T);
trp((1+100*(i-1)):(max(tr.epoch)+100*(i-1)))=tr.perf(1:max(tr.epoch));
A=sim(net,P);
sse=sumsqr(T-A);
plot(P,T,'+');
message=sprintf('Traingd, Epoch %%g/%g, SSE %%gn',me);
fprintf(message,(max(tr.epoch)+100*(i-1)),sse)
[i,j]=size(trp);
plot(1:j,net.trainParam.goal,'r--')
title('Error Signal')
xlabel('epoch')
ylabel('Error')
a = sim(net,p)
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。新版Matlab中神经网络训练函数Newff的使用方法
新版Matlab中神经网络训练函数Newff的使用方法
介绍新版newff
newff(P,T,[S1 S2...S(N-l)],{TF1 TF2...TFNl},
BTF,BLF,PF,IPF,OPF,DDF)
Description
newff(P,T,[S1 S2...S(N-l)],{TF1 TF2...TFNl},
BTF,BLF,PF,IPF,OPF,DDF) takes several arguments
R x Q1 matrix of Q1 sample R-element input
SN x Q2 matrix of Q2 sample SN-element
target vectors
Size of ith layer, for N-1 layers, default
(Output layer size SN is determined from T.)
Transfer function of ith layer. (Default =
'tansig' for
hidden layers and 'purelin' for output layer.)
Backpropagation network training function
(default = 'trainlm')
Backpropagation weight/bias learning
function (default = 'learngdm')
Row cell array of input processing
functions. (Default =
{'fixunknowns','removeconstantrows','mapminmax'})
Row cell array of output processing
functions. (Default =
{'removeconstantrows','mapminmax'})
Data divison function (default =
'dividerand')
problem consisting of inputs P and targets T to be solved with a
P = [0 1 2 3 4 5
6 7 8 9 10];T = [0 1 2 3 4 3 2 1 2 3 4];
Here a network is created
with one hidden layer of five neurons.
newff(P,T,5);
The network is simulated and
its output plotted against the targets.
sim(net,P);plot(P,T,P,Y,'o')
The network is trained for
50 epochs. Again the network's output is plotted.
net.trainParam.epochs = 50;net = train(net,P,T);Y =
sim(net,P);plot(P,T,P,Y,'o')
新版newff与旧版newff调用语法对比
比如输入input(6*1000),输出output为(4*1000),那么
旧版定义:net=newff(minmax(input),[14,4],{'tansig','purelin'},'trainlm');
新版定义:net=newff(input,output,14,{'tansig','purelin'},'trainlm');
比如输入input(6*1000),输出output为(4*1000),那么
旧版定义:net=newff(minmax(input),[49,14,4],{'tansig','tansig','tansig'},'traingdx');
新版定义:net=newff(input,output, [49,14],
{'tansig','tansig','tansig'},'traingdx');
旧版newff使用方法在新版本中使用
提示:旧版本定义的newff虽也能在新版本中使用,但会有警告,警告如下:
Warning: NEWFF used in an obsolete way.
& In obs_use at 18
&&In newff&create_network at
&&In newff at 102
&& & See help
for NEWFF to update calls to the new argument
新版newff与旧版newff使用的训练效果对比
&旧版本:旧用法训练次数多,但精度高&&
新版本:新用法训练次数少,但精度可能达不到要求
造成上述原因是:
程序里面的权值、阈值的初始值是随机赋值的,所以每次运行的结果都会不一样,有好有坏。你可以把预测效果不错的网络的权值和阈值作为初始值。具体可以查看net.iw{1,1}、net.lw{2,1}、net.b{1}、net.b{2}的值。
现在给一个完整的例子
&%% 清空环境变量
%% 训练数据预测数据
data=importdata('test.txt');
%从1到768间随机排序
k=rand(1,768);
[m,n]=sort(k);
%输入输出数据
input=data(:,1:8);
=data(:,9);&
%随机提取500个样本为训练样本,268个样本为预测样本
input_train=input(n(1:500),:)';
output_train=output(n(1:500),:)';
input_test=input(n(501:768),:)';
output_test=output(n(501:768),:)';&
%输入数据归一化
[inputn,inputps]=mapminmax(input_train);&
%% BP网络训练
% %初始化网络结构
net=newff(inputn,output_train,10);&
net.trainParam.epochs=1000;
net.trainParam.lr=0.1;
net.trainParam.goal=0.0000004;
%% 网络训练
net=train(net,inputn,output_train);&
%% BP网络预测
%预测数据归一化
inputn_test=mapminmax('apply',input_test,inputps);&
%网络预测输出
BPoutput=sim(net,inputn_test);&
%% 结果分析
%根据网络输出找出数据属于哪类
BPoutput(find(BPoutput&0.5))=0;
BPoutput(find(BPoutput&=0.5))=1;&
%% 结果分析
%画出预测种类和实际种类的分类图
plot(BPoutput,'og')
plot(output_test,'r*');
legend('预测类别','输出类别')
title('BP网络预测分类与实际类别比对','fontsize',12)
ylabel('类别标签','fontsize',12)
xlabel('样本数目','fontsize',12)
ylim([-0.5
%预测正确率
rightnumber=0;
i=1:size(output_test,2)
if BPoutput(i)==output_test(i)
rightnumber=rightnumber+1;
rightratio=rightnumber/size(output_test,2)*100;
sprintf('测试准确率=%0.2f',rightratio)
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。简单分析神经网络与matlab_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
36页7下载券3页1下载券3页2下载券3页1下载券7页免费 6页1下载券7页2下载券5页免费2页免费8页7下载券
喜欢此文档的还喜欢6页1下载券7页1下载券183页免费2页免费13页1下载券
简单分析神经网络与matlab|简​单​的​分​析​神​经​网​络​B​P​算​法​与​M​A​T​L​A​B​,​希​望​可​以​帮​助​需​要​的​同​学
把文档贴到Blog、BBS或个人站等:
普通尺寸(450*500pix)
较大尺寸(630*500pix)
你可能喜欢

我要回帖

更多关于 matlab 神经元网络 的文章

 

随机推荐