基于遗传算法优化的BP神经网络

Love The Way You Lie 2023-09-27 09:56 199阅读 0赞

文章目录

  • BP神经网络和遗传算法
    • 算法用途
    • 实例分析
  • BP神经网络
  • GA-BP神经网络
    • 遗传算法的步骤:
  • GA-BP神经网络MATLAB源码
    • 实现形式(一)
    • 实现形式(二)
    • 实现形式(三)

BP神经网络和遗传算法

算法用途

  • BP(back propagation)神经网络是1986年由Rumelhart和McClelland为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络模型之一。
  • 遗传算法是模拟达尔文生物进化论的自然选择和遗传学机理的生物进化过程的模型。该算法通过数学的方式,利用计算机仿真运算,将问题的求解过程转换成类似生物进化中的染色体基因的交叉、变异等过程。遗传算法已被人们广泛地应用于组合优化、机器学习、信号处理、自适应控制和人工生命等领域。

实例分析

用经典鲍鱼数据集为例,最后Rings是需要预测的即鲍鱼的年龄,用性别(1:雄性,M;0:中性l ; -1:雌性,F)和一些体征如长度、高度、重量等进行预测。因变量是鲍鱼的年龄,有多个自变量。前面推文用线性回归预测过。BP神经网络也可以用来解决这个问题,此篇用BP神经网络来解决这个回归问题。

鲍鱼数据形式如下:
在这里插入图片描述

BP神经网络

首先来试下固定数据前80%为训练集和后20%为测试集,设置隐藏层神经元为6,激活函数为tansig时,随机运行10次BP神经网络的预测结果,记录其误差以及记录每次运行的时间

MATLAB自带神经网络求解:

  1. clc;clear;close all;
  2. load('abalone_data.mat')
  3. [m,n]=size(data);
  4. train_num=round(0.8*m); %前80%为训练集
  5. x_train_data=data(1:train_num,1:n-1);
  6. y_train_data=data(1:train_num,n);
  7. x_test_data=data(train_num+1:end,1:n-1);
  8. y_test_data=data(train_num+1:end,n);
  9. x_train_data=x_train_data';
  10. y_train_data=y_train_data';
  11. x_test_data=x_test_data';
  12. [x_train_regular,x_train_maxmin] = mapminmax(x_train_data);
  13. [y_train_regular,y_train_maxmin] = mapminmax(y_train_data);
  14. %创建网络
  15. %%调用形式
  16. EMS_all=[]; %运行误差记录
  17. TIME=[]; %运行时间记录
  18. num_iter_all=10; %随机运行次数
  19. for NN=1:num_iter_all
  20. t1=clock;
  21. net=newff(x_train_regular,y_train_regular,6,{'tansig','purelin'});
  22. [net,~]=train(net,x_train_regular,y_train_regular);
  23. %将输入数据归一化
  24. x_test_regular = mapminmax('apply',x_test_data,x_train_maxmin);
  25. %放入到网络输出数据
  26. y_test_regular=sim(net,x_test_regular);
  27. %将得到的数据反归一化得到预测数据
  28. BP_predict=mapminmax('reverse',y_test_regular,y_train_maxmin);
  29. % RBF_predict(find(RBF_predict<0))=-0.244;
  30. %%
  31. BP_predict=BP_predict';
  32. errors_nn=sum(abs(BP_predict-y_test_data)./(y_test_data))/length(y_test_data);
  33. t2=clock;
  34. Time_all=etime(t2,t1);
  35. EMS_all=[EMS_all,errors_nn];
  36. TIME=[TIME,Time_all];
  37. end
  38. figure(2)
  39. % EMS_all=[0.151277426366310,0.145790071635758,0.152229836751767,0.147953564542518,0.143818740388519,0.143837148577291,0.150634730752498,0.147839770226974,0.148028820366280,0.145394520676572];
  40. plot(EMS_all,'LineWidth',2)
  41. xlabel('实验次数')
  42. ylabel('误差')
  43. hold on
  44. figure(3)
  45. color=[111,168,86;128,199,252;112,138,248;184,84,246]/255;
  46. plot(y_test_data,'Color',color(2,:),'LineWidth',1)
  47. hold on
  48. plot(BP_predict,'*','Color',color(1,:))
  49. hold on
  50. titlestr=['MATLAB自带BP神经网络',' 误差为:',num2str(errors_nn)];
  51. title(titlestr)

可以得到以下误差曲线,可见同样参数运行BP神经网络它的结果也可以相差比较大,主要是因为它的初始参数设置是随机的,因此就留给了优化的空间。
在这里插入图片描述

GA-BP神经网络

做优化要先明白优化的结果是什么?

  • 使得网络参数配置最优,测试集预测误差最小——适应度函数

可以通过改变什么来使得网络结果不同?

  1. 可以改变网络参数的初始值,再用BP神经网络的反向传播来寻得整个网络参数的最优
  2. 可以直接遗传算法优化整个网络参数,不引进BP反向传播来获得最佳的网络参数设置
  3. 可以改变参数的初始值,用遗传算法在正向传播里优化出比较好的初始参数,再用反向传播优化参数

遗传算法的步骤:

1. 确定编码的方式
在这里插入图片描述

回顾一下BP神经网络的参数

在这里插入图片描述
可以将所有参数平铺成一条染色体的形式

2. 产生初始种群
在这里插入图片描述
3. 遗传、交叉、变异
在这里插入图片描述
计算上一个种群的适应度函数,适应度越大对应的概率越大,越容易被选择,因此通过轮盘赌可以选择出适应度比较大的染色体。

接下来就是交叉和变异,本质就是增加种群的多样性,下次迭代最佳适应种群可能就出现在交叉或者变异后的个体。
在这里插入图片描述
最后将遗传交叉变异过后的染色体组成新的种群进行下一次迭代。在经过一定迭代次数后挑出适应度最高的染色体作为最后的结果。

GA-BP神经网络MATLAB源码

实现形式(一)

对网络参数初始化后再反向传播进行优化,找出最优的初始化参数。

  • 主函数

    %% 准备数据
    clc;clear;close all;
    load(‘abalone_data.mat’)%鲍鱼数据
    %% 导入数据
    %设置训练数据和测试数据
    [m,n]=size(data);
    train_num=round(0.8*m); %自变量
    x_train_data=data(1:train_num,1:n-1);
    y_train_data=data(1:train_num,n);
    %测试数据
    x_test_data=data(train_num+1:end,1:n-1);
    y_test_data=data(train_num+1:end,n);
    x_train_data=x_train_data’;
    y_train_data=y_train_data’;
    x_test_data=x_test_data’;
    %% 标准化
    [x_train_regular,x_train_maxmin] = mapminmax(x_train_data);
    [y_train_regular,y_train_maxmin] = mapminmax(y_train_data);
    %% 初始化参数
    EMS_all=[];
    TIME=[];
    num_iter_all=5;
    for NN=1:num_iter_all
    input_num=size(x_train_data,1); %输入特征个数
    hidden_num=6; %隐藏层神经元个数
    output_num=size(y_train_data,1); %输出特征个数

    % 遗传算法参数初始化
    iter_num=20; %总体进化迭代次数
    group_num=10; %种群规模
    cross_pro=0.4; %交叉概率
    mutation_pro=0.05; %变异概率,相对来说比较小
    %这个优化的主要思想就是优化网络参数的初始选择,初始选择对于效果好坏是有较大影响的
    num_all=input_numhidden_num+hidden_num+hidden_numoutput_num+output_num;%网络总参数,只含一层隐藏层
    lenchrom=ones(1,num_all); %种群总长度
    limit=[-2ones(num_all,1) 2ones(num_all,1)]; %初始参数给定范围

    t1=clock;
    %% 初始化种群
    input_data=x_train_regular;
    output_data=y_train_regular;
    for i=1:group_num

    1. initial=rand(1,length(lenchrom)); %产生0-1的随机数
    2. initial_chrom(i,:)=limit(:,1)'+(limit(:,2)-limit(:,1))'.*initial; %变成染色体的形式,一行为一条染色体
    3. fitness_value=fitness1(initial_chrom(i,:),input_num,hidden_num,output_num,input_data,output_data);
    4. fitness_group(i)=fitness_value;

    end
    [bestfitness,bestindex]=min(fitness_group);
    bestchrom=initial_chrom(bestindex,:); %最好的染色体
    avgfitness=sum(fitness_group)/group_num; %染色体的平均适应度
    trace=[avgfitness bestfitness]; % 记录每一代进化中最好的适应度和平均适应度
    %% 迭代过程
    input_chrom=initial_chrom;
    % iter_num=1;
    for num=1:iter_num

    1. % 选择
    2. [new_chrom,new_fitness]=select(input_chrom,fitness_group,group_num); %把表现好的挑出来,还是和种群数量一样

    % avgfitness=sum(new_fitness)/group_num;

    1. %交叉
    2. new_chrom=Cross(cross_pro,lenchrom,new_chrom,group_num,limit);
    3. % 变异
    4. new_chrom=Mutation(mutation_pro,lenchrom,new_chrom,group_num,num,iter_num,limit);
    5. % 计算适应度
    6. for j=1:group_num
    7. sgroup=new_chrom(j,:); %个体
    8. new_fitness(j)=fitness1(sgroup,input_num,hidden_num,output_num,input_data,output_data);
    9. end
    10. %找到最小和最大适应度的染色体及它们在种群中的位置
    11. [newbestfitness,newbestindex]=min(new_fitness);
    12. [worestfitness,worestindex]=max(new_fitness);
    13. % 代替上一次进化中最好的染色体
    14. if bestfitness>newbestfitness
    15. bestfitness=newbestfitness;
    16. bestchrom=new_chrom(newbestindex,:);
    17. end
    18. new_chrom(worestindex,:)=bestchrom;
    19. new_fitness(worestindex)=bestfitness;
    20. avgfitness=sum(new_fitness)/group_num;
    21. trace=[trace;avgfitness bestfitness]; %记录每一代进化中最好的适应度和平均适应度

    end
    %%
    figure(1)
    [r ,~]=size(trace);
    plot([1:r]’,trace(:,2),’b—‘);
    title([‘适应度曲线 ‘ ‘终止代数=’ num2str(iter_num)]);
    xlabel(‘进化代数’);ylabel(‘适应度’);
    legend(‘最佳适应度’);

    %% 把最优初始阀值权值赋予网络预测
    % %用遗传算法优化的BP网络进行值预测
    net=newff(x_train_regular,y_train_regular,hidden_num,{‘tansig’,’purelin’});
    w1=bestchrom(1:input_numhidden_num); %输入和隐藏层之间的权重参数
    B1=bestchrom(input_num
    hidden_num+1:input_numhidden_num+hidden_num); %隐藏层神经元的偏置
    w2=bestchrom(input_num
    hidden_num+hidden_num+1:input_num*hidden_num+…

    1. hidden_num+hidden_num*output_num); %隐藏层和输出层之间的偏置

    B2=bestchrom(input_numhidden_num+hidden_num+hidden_numoutput_num+1:input_num*hidden_num+…

    1. hidden_num+hidden_num*output_num+output_num); %输出层神经元的偏置

    %网络权值赋值
    net.iw{1,1}=reshape(w1,hidden_num,input_num);
    net.lw{2,1}=reshape(w2,output_num,hidden_num);
    net.b{1}=reshape(B1,hidden_num,1);
    net.b{2}=reshape(B2,output_num,1);
    net.trainParam.epochs=200; %最大迭代次数
    net.trainParam.lr=0.1; %学习率
    net.trainParam.goal=0.00001;
    [net,~]=train(net,x_train_regular,y_train_regular);

    %将输入数据归一化
    x_test_regular = mapminmax(‘apply’,x_test_data,x_train_maxmin);
    %放入到网络输出数据
    y_test_regular=sim(net,x_test_regular);
    %将得到的数据反归一化得到预测数据
    GA_BP_predict=mapminmax(‘reverse’,y_test_regular,y_train_maxmin);
    errors_nn=sum(abs(GA_BP_predict’-y_test_data)./(y_test_data))/length(y_test_data);
    EcRMSE=sqrt(sum((errors_nn).^2)/length(errors_nn));
    t2=clock;
    Time_all=etime(t2,t1);

    EMS_all=[EMS_all,EcRMSE];
    TIME=[TIME,Time_all];
    end
    %%
    figure(2)
    % EMS_all=[0.149326909497551,0.142964890977319,0.145465721759172,0.144173052409406,0.155684223205026,0.142331921077465,0.144810383902860,0.144137917725977,0.149229175194219,0.143762158676095];
    plot(EMS_all,’LineWidth’,2)
    xlabel(‘实验次数’)
    ylabel(‘误差’)
    hold on
    figure(3)
    color=[111,168,86;128,199,252;112,138,248;184,84,246]/255;
    plot(y_test_data,’Color’,color(2,:),’LineWidth’,1)
    hold on
    plot(GA_BP_predict,’*’,’Color’,color(1,:))
    hold on
    legend(‘真实数据’,’预测数据’)
    disp(‘相对误差为:’)
    disp(EcRMSE)
    titlestr=[‘BP神经网络’,’ 误差为:’,num2str(min(EcRMSE))];
    title(titlestr)

  • 适应度函数

    function fitness_value=fitness1(input_chrom,input_num,hidden_num,output_num,input_data,output_data)
    %该函数用来计算适应度值
    %input_chrom 输入种群
    %input_num 输入层的节点数,即数据特征数量
    %output_num 隐含层节点数,隐藏层神经元的个数
    %input_data 训练输入数据
    %output_data 训练输出数据
    %fitness_value 个体适应度值
    w1=input_chrom(1:input_numhidden_num); %输入和隐藏层之间的权重参数
    B1=input_chrom(input_num
    hidden_num+1:input_numhidden_num+hidden_num); %隐藏层神经元的偏置
    w2=input_chrom(input_num
    hidden_num+hidden_num+1:input_num*hidden_num+…

    1. hidden_num+hidden_num*output_num); %隐藏层和输出层之间的偏置

    B2=input_chrom(input_numhidden_num+hidden_num+hidden_numoutput_num+1:input_num*hidden_num+…

    1. hidden_num+hidden_num*output_num+output_num); %输出层神经元的偏置

    % %网络权值赋值
    net=newff(input_data,output_data,hidden_num,{‘tansig’,’purelin’});
    %网络进化参数
    net.trainParam.epochs=20;
    net.trainParam.lr=0.1;
    net.trainParam.goal=0.00001;
    net.trainParam.show=100;
    net.trainParam.showWindow=0;
    %网络权值赋值
    net.iw{1,1}=reshape(w1,hidden_num,input_num);

    net.lw{2,1}=reshape(w2,output_num,hidden_num);

    net.b{1}=reshape(B1,hidden_num,1);

    net.b{2}=reshape(B2,output_num,1);

    %网络训练
    net=train(net,input_data,output_data);
    pre=sim(net,input_data);
    error=sum(sum(abs(pre-output_data)));
    fitness_value=error; %误差即为适应度
    end

  • 选择函数

    function [new_chrom,new_fitness]=select(input_chrom,fitness_group,group_num)
    % 用轮盘赌在原来的函数里选择
    % fitness_group 种群信息
    % group_num 种群规模
    % newgroup 选择后的新种群
    %求适应度值倒数
    fitness1=10./fitness_group; %individuals.fitness为个体适应度值
    %个体选择概率
    sumfitness=sum(fitness1);
    sumf=fitness1./sumfitness;
    %采用轮盘赌法选择新个体
    index=[];
    for i=1:1000 %group_num为种群数

    1. pick=rand;
    2. while pick==0
    3. pick=rand;
    4. end

    for j=1:group_num

    1. pick=pick-sumf(j);
    2. if pick<0
    3. index=[index j];
    4. break;
    5. end

    end
    if length(index) == group_num

    1. break;

    end
    end

    %新种群
    new_chrom=input_chrom(index,:);
    new_fitness=fitness_group(index);
    end

  • 交叉函数

    function new_chrom=Cross(cross_pro,lenchrom,input_chrom,group_num,limit)
    %随机选择两个染色体位置交叉
    % cross_pro 交叉概率
    % lenchrom 染色体的长度,即所有参数的数量
    % input_chrom 染色体群,经过选择遗传下来的表现比较好的
    % group_num 种群规模
    % new_chrom 交叉后的染色体
    for i=1:group_num %每一轮for循环中,可能会进行一次交叉操作,染色体是随机选择的,交叉位置也是随机选择的,

    1. %但该轮for循环中是否进行交叉操作则由交叉概率决定(continue控制)
    2. pick=rand(1,2); % 随机选择两个染色体进行交叉
    3. while prod(pick)==0 %连乘
    4. pick=rand(1,2);
    5. end
    6. index=ceil(pick.*group_num); % 交叉概率决定是否进行交叉
    7. pick=rand;
    8. while pick==0
    9. pick=rand;
    10. end
    11. if pick>cross_pro
    12. continue;
    13. end
    14. % 随机选择交叉位
    15. pick=rand;
    16. while pick==0
    17. pick=rand;
    18. end
    19. flag=0;
    20. while flag==0
    21. pos=ceil(pick*length(lenchrom)); %随机选择进行交叉的位置,即选择第几个变量进行交叉,注意:两个染色体交叉的位置相同
    22. pick=rand; %交叉开始
    23. v1=input_chrom(index(1),pos);
    24. v2=input_chrom(index(2),pos);
    25. input_chrom(index(1),pos)=pick*v2+(1-pick)*v1;
    26. input_chrom(index(2),pos)=pick*v1+(1-pick)*v2; %交叉结束
    27. %判断交叉后的两条染色体可不可行
    28. limit1=mean(limit);
    29. f11=isempty(find(input_chrom(index(1),:)>limit1(2)));
    30. f12=isempty(find(input_chrom(index(1),:)<limit1(1)));
    31. if f11*f12==0
    32. flag1=0;
    33. else
    34. flag1=1;
    35. end
    36. f21=isempty(find(input_chrom(index(2),:)>limit1(2)));
    37. f22=isempty(find(input_chrom(index(2),:)<limit1(1)));
    38. if f21*f22==0
    39. flag2=0;
    40. else
    41. flag2=1;
    42. end
    43. if flag1*flag2==0
    44. flag=0;
    45. else
    46. flag=1;
    47. end %如果两个染色体不是都可行,则重新交叉
    48. end

    end
    new_chrom=input_chrom;
    end

  • 变异函数

    function new_chrom=Mutation(mutation_pro,lenchrom,input_chrom,group_num,num,iter_num,limit)
    % 本函数完成变异操作
    % mutation_pro 变异概率
    % lenchrom 染色体长度
    % input_chrom 输入交叉过后的染色体
    % group_num 种群规模
    % iter_num 最大迭代次数
    % limit 每个个体的上限和下限
    % num 当前迭代次数
    % new_chrom 变异后的染色体
    for i=1:group_num %每一轮for循环中,可能会进行一次变异操作,染色体是随机选择的,变异位置也是随机选择的,

    1. %但该轮for循环中是否进行变异操作则由变异概率决定(continue控制)
    2. % 随机选择一个染色体进行变异
    3. pick=rand;
    4. while pick==0
    5. pick=rand;
    6. end
    7. index=ceil(pick*group_num);
    8. % 变异概率决定该轮循环是否进行变异
    9. pick=rand;
    10. if pick>mutation_pro
    11. continue;
    12. end
    13. flag=0;
    14. while flag==0
    15. % 变异位置
    16. pick=rand;
    17. while pick==0
    18. pick=rand;
    19. end
    20. pos=ceil(pick*sum(lenchrom)); %随机选择了染色体变异的位置,即选择了第pos个变量进行变异
    21. pick=rand; %变异开始
    22. fg=(pick*(1-num/iter_num))^2;
    23. if pick>0.5
    24. input_chrom(index,pos)=input_chrom(index,pos)+(limit(pos,2)-input_chrom(index,pos))*fg;
    25. else
    26. input_chrom(index,pos)=input_chrom(index,pos)-(input_chrom(index,pos)-limit(pos,1))*fg;
    27. end %变异结束
    28. limit1=mean(limit);
    29. f1=isempty(find(input_chrom(index,:)>limit1(2)));
    30. f2=isempty(find(input_chrom(index,:)<limit1(1)));
    31. if f1*f2==0
    32. flag=0;
    33. else
    34. flag=1;
    35. end
    36. end

    end
    new_chrom=input_chrom;

可以设置num_iter_all=1 即运行一次,把种群数和迭代次数都设置大一些
在这里插入图片描述
在这里插入图片描述

实现形式(二)

对网络参数初始化正向传播进行优化,找出最优的初始化参数,最后再反向传播进行优化

  • 主函数

    %% 准备数据
    clc;clear;close all;
    load(‘abalone_data.mat’)%鲍鱼数据
    %% 导入数据
    %设置训练数据和测试数据
    [m,n]=size(data);
    train_num=round(0.8*m); %自变量
    x_train_data=data(1:train_num,1:n-1);
    y_train_data=data(1:train_num,n);
    %测试数据
    x_test_data=data(train_num+1:end,1:n-1);
    y_test_data=data(train_num+1:end,n);
    x_train_data=x_train_data’;
    y_train_data=y_train_data’;
    x_test_data=x_test_data’;
    %% 标准化
    [x_train_regular,x_train_maxmin] = mapminmax(x_train_data);
    [y_train_regular,y_train_maxmin] = mapminmax(y_train_data);

    %% 初始化参数
    EMS_all=[];
    TIME=[];
    num_iter_all=5;
    for NN=1:num_iter_all
    input_num=size(x_train_data,1); %输入特征个数
    hidden_num=6; %隐藏层神经元个数
    output_num=size(y_train_data,1); %输出特征个数

    % 遗传算法参数初始化
    iter_num=30; %总体进化迭代次数
    group_num=10; %种群规模
    cross_pro=0.4; %交叉概率
    mutation_pro=0.05; %变异概率,相对来说比较小
    %这个优化的主要思想就是优化网络参数的初始选择,初始选择对于效果好坏是有较大影响的
    num_all=input_numhidden_num+hidden_num+hidden_numoutput_num+output_num;%网络总参数,只含一层隐藏层
    lenchrom=ones(1,num_all); %种群总长度
    limit=[-2ones(num_all,1) 2ones(num_all,1)]; %初始参数给定范围

    t1=clock;
    %% 初始化种群
    input_data=x_train_regular;
    output_data=y_train_regular;
    for i=1:group_num

    1. initial=rand(1,length(lenchrom)); %产生0-1的随机数
    2. initial_chrom(i,:)=limit(:,1)'+(limit(:,2)-limit(:,1))'.*initial; %变成染色体的形式,一行为一条染色体
    3. fitness_value=fitness(initial_chrom(i,:),input_num,hidden_num,output_num,input_data,output_data);
    4. fitness_group(i)=fitness_value;

    end
    [bestfitness,bestindex]=min(fitness_group);
    bestchrom=initial_chrom(bestindex,:); %最好的染色体
    avgfitness=sum(fitness_group)/group_num; %染色体的平均适应度
    trace=[avgfitness bestfitness]; % 记录每一代进化中最好的适应度和平均适应度
    %% 迭代过程
    new_chrom=initial_chrom;
    new_fitness=fitness_group;
    for num=1:iter_num

    1. % 选择
    2. [new_chrom,new_fitness]=select(new_chrom,new_fitness,group_num); %把表现好的挑出来,还是和种群数量一样
    3. %交叉
    4. new_chrom=Cross(cross_pro,lenchrom,new_chrom,group_num,limit);
    5. % 变异
    6. new_chrom=Mutation(mutation_pro,lenchrom,new_chrom,group_num,num,iter_num,limit);
    7. % 计算适应度
    8. for j=1:group_num
    9. sgroup=new_chrom(j,:); %个体
    10. new_fitness(j)=fitness(sgroup,input_num,hidden_num,output_num,input_data,output_data);
    11. end
    12. %找到最小和最大适应度的染色体及它们在种群中的位置
    13. [newbestfitness,newbestindex]=min(new_fitness);
    14. [worestfitness,worestindex]=max(new_fitness);
    15. % 代替上一次进化中最好的染色体
    16. if bestfitness>newbestfitness
    17. bestfitness=newbestfitness;
    18. bestchrom=new_chrom(newbestindex,:);
    19. end
    20. new_chrom(worestindex,:)=bestchrom;
    21. new_fitness(worestindex)=bestfitness;
    22. avgfitness=sum(new_fitness)/group_num;
    23. trace=[trace;avgfitness bestfitness]; %记录每一代进化中最好的适应度和平均适应度

    end
    %%
    figure(1)
    [r ,~]=size(trace);
    plot([1:r]’,trace(:,2),’b—‘);
    title([‘适应度曲线 ‘ ‘终止代数=’ num2str(iter_num)]);
    xlabel(‘进化代数’);ylabel(‘适应度’);
    legend(‘最佳适应度’);

    %% 把最优初始阀值权值赋予网络预测
    % %用遗传算法优化的BP网络进行值预测
    net=newff(x_train_regular,y_train_regular,hidden_num,{‘tansig’,’purelin’},’trainlm’);
    w1=bestchrom(1:input_numhidden_num); %输入和隐藏层之间的权重参数
    B1=bestchrom(input_num
    hidden_num+1:input_numhidden_num+hidden_num); %隐藏层神经元的偏置
    w2=bestchrom(input_num
    hidden_num+hidden_num+1:input_num*hidden_num+…

    1. hidden_num+hidden_num*output_num); %隐藏层和输出层之间的偏置

    B2=bestchrom(input_numhidden_num+hidden_num+hidden_numoutput_num+1:input_num*hidden_num+…

    1. hidden_num+hidden_num*output_num+output_num); %输出层神经元的偏置

    %网络权值赋值
    net.iw{1,1}=reshape(w1,hidden_num,input_num);
    net.lw{2,1}=reshape(w2,output_num,hidden_num);
    net.b{1}=reshape(B1,hidden_num,1);
    net.b{2}=reshape(B2,output_num,1);
    net.trainParam.epochs=200; %最大迭代次数
    net.trainParam.lr=0.1; %学习率
    net.trainParam.goal=0.00001;
    [net,~]=train(net,x_train_regular,y_train_regular);

  1. %将输入数据归一化
  2. x_test_regular = mapminmax('apply',x_test_data,x_train_maxmin);
  3. %放入到网络输出数据
  4. y_test_regular=sim(net,x_test_regular);
  5. %将得到的数据反归一化得到预测数据
  6. GA_BP_predict=mapminmax('reverse',y_test_regular,y_train_maxmin);
  7. errors_nn=sum(abs(GA_BP_predict'-y_test_data)./(y_test_data))/length(y_test_data);
  8. EcRMSE=sqrt(sum((errors_nn).^2)/length(errors_nn));
  9. t2=clock;
  10. Time_all=etime(t2,t1);
  11. EMS_all=[EMS_all,EcRMSE];
  12. TIME=[TIME,Time_all];
  13. end
  14. figure(2)
  15. % EMS_all=[0.149326909497551,0.142964890977319,0.145465721759172,0.144173052409406,0.155684223205026,0.142331921077465,0.144810383902860,0.144137917725977,0.149229175194219,0.143762158676095];
  16. plot(EMS_all,'LineWidth',2)
  17. xlabel('实验次数')
  18. ylabel('误差')
  19. hold on
  20. figure(3)
  21. color=[111,168,86;128,199,252;112,138,248;184,84,246]/255;
  22. plot(y_test_data,'Color',color(2,:),'LineWidth',1)
  23. hold on
  24. plot(GA_BP_predict,'*','Color',color(1,:))
  25. hold on
  26. legend('真实数据','预测数据')
  27. disp('相对容量误差为:')
  28. disp(EcRMSE)
  29. titlestr=['BP神经网络',' 误差为:',num2str(min(EcRMSE))];
  30. title(titlestr)
  • 适应度函数

    function fitness_value=fitness(input_chrom,input_num,hidden_num,output_num,input_data,output_data)
    %该函数用来计算适应度值
    %input_chrom 输入种群
    %input_num 输入层的节点数,即数据特征数量
    %output_num 隐含层节点数,隐藏层神经元的个数
    %input_data 训练输入数据
    %output_data 训练输出数据
    %fitness_value 个体适应度值
    w1=input_chrom(1:input_numhidden_num); %输入和隐藏层之间的权重参数
    B1=input_chrom(input_num
    hidden_num+1:input_numhidden_num+hidden_num); %隐藏层神经元的偏置
    w2=input_chrom(input_num
    hidden_num+hidden_num+1:input_num*hidden_num+…

    1. hidden_num+hidden_num*output_num); %隐藏层和输出层之间的偏置

    B2=input_chrom(input_numhidden_num+hidden_num+hidden_numoutput_num+1:input_num*hidden_num+…

    1. hidden_num+hidden_num*output_num+output_num); %输出层神经元的偏置

    %网络权值赋值
    W1=reshape(w1,hidden_num,input_num);
    W2=reshape(w2,output_num,hidden_num);
    B1=reshape(B1,hidden_num,1);
    B2=reshape(B2,output_num,1);
    [~,n]=size(input_data);
    A1=tansig(W1input_data+repmat(B1,1,n)); %需与main函数中激活函数相同
    A2=purelin(W2
    A1+repmat(B2,1,n)); %需与main函数中激活函数相同
    error=sumsqr(output_data-A2);
    fitness_value=error; %误差即为适应度
    end

  • 选择函数

    function [new_chrom,new_fitness]=select(input_chrom,fitness_group,group_num)
    % 用轮盘赌在原来的函数里选择
    % fitness_group 种群信息
    % group_num 种群规模
    % newgroup 选择后的新种群
    %求适应度值倒数
    fitness1=10./fitness_group; %individuals.fitness为个体适应度值
    %个体选择概率
    sumfitness=sum(fitness1);
    sumf=fitness1./sumfitness;
    %采用轮盘赌法选择新个体
    index=[];
    for i=1:1000 %group_num为种群数

    1. pick=rand;
    2. while pick==0
    3. pick=rand;
    4. end

    for j=1:group_num

    1. pick=pick-sumf(j);
    2. if pick<0
    3. index=[index j];
    4. break;
    5. end

    end
    if length(index) == group_num

    1. break;

    end
    end

    %新种群
    new_chrom=input_chrom(index,:);
    new_fitness=fitness_group(index);
    end

  • 交叉函数

    function new_chrom=Cross(cross_pro,lenchrom,input_chrom,group_num,limit)
    %随机选择两个染色体位置交叉
    % cross_pro 交叉概率
    % lenchrom 染色体的长度,即所有参数的数量
    % input_chrom 染色体群,经过选择遗传下来的表现比较好的
    % group_num 种群规模
    % new_chrom 交叉后的染色体
    for i=1:group_num %每一轮for循环中,可能会进行一次交叉操作,染色体是随机选择的,交叉位置也是随机选择的,

    1. %但该轮for循环中是否进行交叉操作则由交叉概率决定(continue控制)
    2. pick=rand(1,2); % 随机选择两个染色体进行交叉
    3. while prod(pick)==0 %连乘
    4. pick=rand(1,2);
    5. end
    6. index=ceil(pick.*group_num); % 交叉概率决定是否进行交叉
    7. pick=rand;
    8. while pick==0
    9. pick=rand;
    10. end
    11. if pick>cross_pro
    12. continue;
    13. end
    14. % 随机选择交叉位
    15. pick=rand;
    16. while pick==0
    17. pick=rand;
    18. end
    19. flag=0;
    20. while flag==0
    21. pos=ceil(pick*length(lenchrom)); %随机选择进行交叉的位置,即选择第几个变量进行交叉,注意:两个染色体交叉的位置相同
    22. pick=rand; %交叉开始
    23. v1=input_chrom(index(1),pos);
    24. v2=input_chrom(index(2),pos);
    25. input_chrom(index(1),pos)=pick*v2+(1-pick)*v1;
    26. input_chrom(index(2),pos)=pick*v1+(1-pick)*v2; %交叉结束
    27. %判断交叉后的两条染色体可不可行
    28. limit1=mean(limit);
    29. f11=isempty(find(input_chrom(index(1),:)>limit1(2)));
    30. f12=isempty(find(input_chrom(index(1),:)<limit1(1)));
    31. if f11*f12==0
    32. flag1=0;
    33. else
    34. flag1=1;
    35. end
    36. f21=isempty(find(input_chrom(index(2),:)>limit1(2)));
    37. f22=isempty(find(input_chrom(index(2),:)<limit1(1)));
    38. if f21*f22==0
    39. flag2=0;
    40. else
    41. flag2=1;
    42. end
    43. if flag1*flag2==0
    44. flag=0;
    45. else
    46. flag=1;
    47. end %如果两个染色体不是都可行,则重新交叉
    48. end

    end
    new_chrom=input_chrom;
    end

  • 变异函数

    function new_chrom=Mutation(mutation_pro,lenchrom,input_chrom,group_num,num,iter_num,limit)
    % 本函数完成变异操作
    % mutation_pro 变异概率
    % lenchrom 染色体长度
    % input_chrom 输入交叉过后的染色体
    % group_num 种群规模
    % iter_num 最大迭代次数
    % limit 每个个体的上限和下限
    % num 当前迭代次数
    % new_chrom 变异后的染色体
    for i=1:group_num %每一轮for循环中,可能会进行一次变异操作,染色体是随机选择的,变异位置也是随机选择的,

    1. %但该轮for循环中是否进行变异操作则由变异概率决定(continue控制)
    2. % 随机选择一个染色体进行变异
    3. pick=rand;
    4. while pick==0
    5. pick=rand;
    6. end
    7. index=ceil(pick*group_num);
    8. % 变异概率决定该轮循环是否进行变异
    9. pick=rand;
    10. if pick>mutation_pro
    11. continue;
    12. end
    13. flag=0;
    14. while flag==0
    15. % 变异位置
    16. pick=rand;
    17. while pick==0
    18. pick=rand;
    19. end
    20. pos=ceil(pick*sum(lenchrom)); %随机选择了染色体变异的位置,即选择了第pos个变量进行变异
    21. pick=rand; %变异开始
    22. fg=(pick*(1-num/iter_num))^2;
    23. if pick>0.5
    24. input_chrom(index,pos)=input_chrom(index,pos)+(limit(pos,2)-input_chrom(index,pos))*fg;
    25. else
    26. input_chrom(index,pos)=input_chrom(index,pos)-(input_chrom(index,pos)-limit(pos,1))*fg;
    27. end %变异结束
    28. limit1=mean(limit);
    29. f1=isempty(find(input_chrom(index,:)>limit1(2)));
    30. f2=isempty(find(input_chrom(index,:)<limit1(1)));
    31. if f1*f2==0
    32. flag=0;
    33. else
    34. flag=1;
    35. end
    36. end

    end
    new_chrom=input_chrom;

这种方法和之前效果好像差不多,之前迭代次数没有设置那么多,这次迭代100次运行时间也只需要1秒多,差不多是之前那种方法运行速度的100倍。

在这里插入图片描述

实现形式(三)

不引入反向传播只用遗传算法优化网络参数,试了下还是反向传播优化效果好,除非遗传算法种群很大,迭代次数特别多才勉强可达到反向传播的效果,这样运行时间也会非常长

  1. %% 准备数据
  2. clc;clear;close all;
  3. load('abalone_data.mat')%鲍鱼数据
  4. %% 导入数据
  5. %设置训练数据和测试数据
  6. [m,n]=size(data);
  7. train_num=round(0.8*m); %自变量
  8. x_train_data=data(1:train_num,1:n-1);
  9. y_train_data=data(1:train_num,n);
  10. %测试数据
  11. x_test_data=data(train_num+1:end,1:n-1);
  12. y_test_data=data(train_num+1:end,n);
  13. x_train_data=x_train_data';
  14. y_train_data=y_train_data';
  15. x_test_data=x_test_data';
  16. %% 标准化
  17. [x_train_regular,x_train_maxmin] = mapminmax(x_train_data);
  18. [y_train_regular,y_train_maxmin] = mapminmax(y_train_data);
  19. %% 初始化参数
  20. input_num=size(x_train_data,1); %输入特征个数
  21. hidden_num=6; %隐藏层神经元个数
  22. output_num=size(y_train_data,1); %输出特征个数
  23. % 遗传算法参数初始化
  24. iter_num=500; %总体进化迭代次数
  25. group_num=40; %种群规模
  26. cross_pro=0.4; %交叉概率
  27. mutation_pro=0.05; %变异概率,相对来说比较小
  28. %这个优化的主要思想就是优化网络参数的初始选择,初始选择对于效果好坏是有较大影响的
  29. num_all=input_num*hidden_num+hidden_num+hidden_num*output_num+output_num;%网络总参数,只含一层隐藏层
  30. lenchrom=ones(1,num_all); %种群总长度
  31. limit=[-1*ones(num_all,1) 1*ones(num_all,1)]; %初始参数给定范围
  32. EMS_all=[];
  33. TIME=[];
  34. num_iter_all=1;
  35. for NN=1:num_iter_all
  36. t1=clock;
  37. %% 初始化种群
  38. input_data=x_train_regular;
  39. output_data=y_train_regular;
  40. for i=1:group_num
  41. initial=rand(1,length(lenchrom)); %产生0-1的随机数
  42. initial_chrom(i,:)=limit(:,1)'+(limit(:,2)-limit(:,1))'.*initial; %变成染色体的形式,一行为一条染色体
  43. fitness_value=fitness(initial_chrom(i,:),input_num,hidden_num,output_num,input_data,output_data);
  44. fitness_group(i)=fitness_value;
  45. end
  46. [bestfitness,bestindex]=min(fitness_group);
  47. bestchrom=initial_chrom(bestindex,:); %最好的染色体
  48. avgfitness=sum(fitness_group)/group_num; %染色体的平均适应度
  49. trace=[avgfitness bestfitness]; % 记录每一代进化中最好的适应度和平均适应度
  50. %% 迭代过程
  51. new_chrom=initial_chrom;
  52. new_fitness=fitness_group;
  53. for num=1:iter_num
  54. % 选择
  55. [new_chrom,new_fitness]=select(new_chrom,new_fitness,group_num);
  56. avgfitness=sum(new_fitness)/group_num;
  57. %交叉
  58. new_chrom=Cross(cross_pro,lenchrom,new_chrom,group_num,limit);
  59. % 变异
  60. new_chrom=Mutation(mutation_pro,lenchrom,new_chrom,group_num,num,iter_num,limit);
  61. % 计算适应度
  62. for j=1:group_num
  63. sgroup=new_chrom(j,:); %个体
  64. new_fitness(j)=fitness(sgroup,input_num,hidden_num,output_num,input_data,output_data);
  65. end
  66. %找到最小和最大适应度的染色体及它们在种群中的位置
  67. [newbestfitness,newbestindex]=min(new_fitness);
  68. [worestfitness,worestindex]=max(new_fitness);
  69. % 代替上一次进化中最好的染色体
  70. if bestfitness>newbestfitness
  71. bestfitness=newbestfitness;
  72. bestchrom=new_chrom(newbestindex,:);
  73. end
  74. new_chrom(worestindex,:)=bestchrom;
  75. new_fitness(worestindex)=bestfitness;
  76. avgfitness=sum(new_fitness)/group_num;
  77. trace=[trace;avgfitness bestfitness]; %记录每一代进化中最好的适应度和平均适应度
  78. end
  79. %%
  80. figure(1)
  81. [r ,~]=size(trace);
  82. plot([1:r]',trace(:,2),'b--');
  83. title(['适应度曲线 ' '终止代数=' num2str(iter_num)]);
  84. xlabel('进化代数');ylabel('适应度');
  85. legend('最佳适应度');
  86. %% 把最优初始阀值权值赋予网络预测
  87. % %用遗传算法优化的BP网络进行值预测
  88. % net=newff(x_train_regular,y_train_regular,hidden_num,{'tansig','purelin'},'trainlm');
  89. % input_chrom=bestchrom;
  90. w1=bestchrom(1:input_num*hidden_num); %输入和隐藏层之间的权重参数
  91. B1=bestchrom(input_num*hidden_num+1:input_num*hidden_num+hidden_num); %隐藏层神经元的偏置
  92. w2=bestchrom(input_num*hidden_num+hidden_num+1:input_num*hidden_num+...
  93. hidden_num+hidden_num*output_num); %隐藏层和输出层之间的偏置
  94. B2=bestchrom(input_num*hidden_num+hidden_num+hidden_num*output_num+1:input_num*hidden_num+...
  95. hidden_num+hidden_num*output_num+output_num); %输出层神经元的偏置
  96. %网络权值赋值
  97. % net.iw{1,1}=reshape(w1,hidden_num,input_num);
  98. % net.lw{2,1}=reshape(w2,output_num,hidden_num);
  99. % net.b{1}=reshape(B1,hidden_num,1);
  100. % net.b{2}=reshape(B2,output_num,1);
  101. % net.trainParam.epochs=200; %最大迭代次数
  102. % net.trainParam.lr=0.1; %学习率
  103. % net.trainParam.goal=0.00001;
  104. % [net,~]=train(net,x_train_regular,y_train_regular);
  105. w1=reshape(w1,hidden_num,input_num);
  106. w2=reshape(w2,output_num,hidden_num);
  107. B1=reshape(B1,hidden_num,1);
  108. B2=reshape(B2,output_num,1);
  109. %将输入数据归一化
  110. x_test_regular = mapminmax('apply',x_test_data,x_train_maxmin);
  111. [~,n1]=size(x_test_regular);
  112. %放入到网络输出数据
  113. A1=tansig(w1*x_test_regular+repmat(B1,1,n1)); %需与main函数中激活函数相同
  114. A2=purelin(w2*A1+repmat(B2,1,n1)); %需与main函数中激活函数相同
  115. % y_test_regular=sim(net,x_test_regular);
  116. y_test_regular=A2;
  117. %将得到的数据反归一化得到预测数据
  118. GA_BP_predict=mapminmax('reverse',y_test_regular,y_train_maxmin);
  119. errors_nn=sum(abs(GA_BP_predict'-y_test_data)./(y_test_data))/length(y_test_data);
  120. EcRMSE=sqrt(sum((errors_nn).^2)/length(errors_nn));
  121. t2=clock;
  122. Time_all=etime(t2,t1);
  123. EMS_all=[EMS_all,EcRMSE];
  124. TIME=[TIME,Time_all];
  125. end
  126. figure(2)
  127. % EMS_all=[0.142257836480101,0.145475762362687,0.142025031462931,0.144898144312287,0.145330361342209,0.151655962592779,0.142833464193844,0.136991568565291,0.150775201950770,0.146993509081267];
  128. plot(EMS_all,'LineWidth',2)
  129. xlabel('实验次数')
  130. ylabel('误差')
  131. hold on
  132. figure(3)
  133. color=[111,168,86;128,199,252;112,138,248;184,84,246]/255;
  134. plot(y_test_data,'Color',color(2,:),'LineWidth',1)
  135. hold on
  136. plot(GA_BP_predict,'*','Color',color(1,:))
  137. hold on
  138. legend('真实数据','预测数据')
  139. disp('相对容量误差为:')
  140. disp(EcRMSE)
  141. titlestr=['BP神经网络',' 误差为:',num2str(min(EcRMSE))];
  142. title(titlestr)

newff : 搭建神经网络

  • 语法
    newff(P,T,S,TF,BTF,BLF,PF,IPF,OPF,DDF)

说明

  • newff(P,T,S,TF,BTF,BLF,PF,IPF,OPF,DDF),
    P为输入数据,T为输入标签,S为神经元个数,TF为激活函数,返回训练好的模型。

发表评论

表情:
评论列表 (有 0 条评论,199人围观)

还没有评论,来说两句吧...

相关阅读