加入慣性係數,已加快收斂速度,代碼如下:

#include <stdlib.h>
#include <math.h>
#include <stdio.h>
#include <time.h>

#define OUT_COUT 2 //輸出向量維數
#define IN_COUT 3 //輸入向量維數
#define COUT 6 //樣本數量

typedef struct { //bp人工神經網路結構
int h; //實際使用隱層數量
double v[IN_COUT][50]; //隱藏層權矩陣i,隱層節點最大數量為100
double w[50][OUT_COUT]; //輸出層權矩陣
double a; //學習率
double b; //精度控制參數
double c; //慣性係數0.9-1
int LoopCout; //最大迴圈次數
} bp_nn;

double fnet(double net) { //Sigmoid函數,神經網路啟動函數
return 1/(1+exp(-net));
}

int InitBp(bp_nn *bp) { //初始化bp網路

printf("請輸入隱層節點數,最大數為100:\n");
scanf("%d", &(*bp).h);

printf("請輸入學習率:\n");
scanf("%lf", &(*bp).a); //(*bp).a為double型資料,所以必須是lf

printf("請輸入精度控制參數:\n");
scanf("%lf", &(*bp).b);

printf("請輸入慣性係數:\n");
scanf("%lf", &(*bp).c);

printf("請輸入最大迴圈次數:\n");
scanf("%d", &(*bp).LoopCout);

int i, j;
srand((unsigned)time(Null));
for (i = 0; i < IN_COUT; i++)
for (j = 0; j < (*bp).h; j++)
(*bp).v[i][j] = rand() / (double)(RAND_MAX);
for (i = 0; i < (*bp).h; i++)
for (j = 0; j < OUT_COUT; j++)
(*bp).w[i][j] = rand() / (double)(RAND_MAX);

return 1;
}

int TrainBp(bp_nn *bp, float x[COUT][IN_COUT], int y[COUT][OUT_COUT]) {
//训练bp网络,样本为x,理想输出为y
double f = (*bp).b; //精度控制参数
double a = (*bp).a; //学习率
double c = (*bp).c; //惯性系数
int h = (*bp).h; //隐层节点数
double v[IN_COUT][50], w[50][OUT_COUT]; //权矩阵
double Ch_v[IN_COUT][50], Ch_w[50][OUT_COUT]; //权矩阵修改量
double Temp_v[IN_COUT][50], Temp_w[50][OUT_COUT]; //权矩阵修改量
double ChgH[50], ChgO[OUT_COUT]; //修改量矩阵
double O1[50], O2[OUT_COUT]; //隐层和输出层输出量
int LoopCout = (*bp).LoopCout; //最大循环次数
int i, j, k, n;
double temp;

for (i = 0; i < IN_COUT; i++) // 复制结构体中的权矩阵
for (j = 0; j < h; j++)
v[i][j] = (*bp).v[i][j];
for (i = 0; i < h; i++)
for (j = 0; j < OUT_COUT; j++)
w[i][j] = (*bp).w[i][j];

double e = f + 1;
for (n = 0; e > f && n < LoopCout; n++) { //对每个样本训练网络
e = 0;
for (j = 0; j < OUT_COUT; j++)
ChgO[j] = 0;
for (j = 0; j < h; j++)
ChgH[j] = 0;
for (j = 0; j < h; j++)
for (k = 0; k < OUT_COUT; k++)
Ch_w[j][k] = 0;
for (j = 0; j < IN_COUT; j++)
for (k = 0; k < h; k++)
Ch_v[j][k] = 0;
for (i= 0; i < COUT; i++) {
for (j = 0; j < h; j++)
for (k = 0; k < OUT_COUT; k++)
Temp_w[j][k] = 0;
for (j = 0; j < IN_COUT; j++)
for (k = 0; k < h; k++)
Temp_v[j][k] = 0;
for (k= 0; k < h; k++) { //计算隐层输出向量
temp = 0;
for (j = 0; j < IN_COUT; j++)
temp = temp + x[i][j] * v[j][k];
O1[k] = fnet(temp);
}
for (k = 0; k < OUT_COUT; k++) { //計算輸出層輸出向量
temp = 0;
for (j = 0; j < h; j++)
temp = temp + O1[j] * w[j][k];
O2[k] = fnet(temp);
}
for (j = 0; j < OUT_COUT ; j++) //計算輸出誤差
e = e + 0.5*(y[i][j] - O2[j]) * (y[i][j] - O2[j]);
for (j = 0; j < OUT_COUT; j++)
ChgO[j] = O2[j] * (1 - O2[j]) * (y[i][j] - O2[j]);
for (j = 0; j < h; j++)
for (k = 0; k < OUT_COUT; k++) {
Temp_w[j][k] = c * Temp_w[j][k] + a * O1[j] * ChgO[k];
Ch_w[j][k] += Temp_w[j][k]; //累加所有樣本訓練後的改變數
}
for (j = 0; j < h; j++) {
temp = 0;
for (k = 0; k < OUT_COUT; k++)
temp = temp + w[j][k] * ChgO[k];
ChgH[j] = temp * O1[j] * (1 - O1[j]);
}
for (j = 0; j < IN_COUT; j++)
for (k = 0; k < h; k++) {
Temp_v[j][k] = c * Temp_v[j][k] + a * x[i][j] * ChgH[k];
Ch_v[j][k] += Temp_v[j][k]; //累加所有樣本訓練後的改變數,消除樣本順序影響
}
}
for (j = 0; j < h; j++) //修改輸出層權矩陣
for (k = 0; k < OUT_COUT; k++)
w[j][k] = w[j][k] + Ch_w[j][k];
for (j = 0; j < IN_COUT; j++) //修改隱藏層權矩陣
for (k = 0; k < h; k++)
v[j][k] = v[j][k] + Ch_v[j][k];
if (n % 10 == 0) {
printf("誤差 : %f\n", e);
printf("迴圈次數:%d\n", n);
}
}
printf("總共迴圈次數:%d\n", n);
printf("调整后的隐层权矩阵:\n");
for (i = 0; i < IN_COUT; i++) {
for (j = 0; j < h; j++)
printf("%f ", v[i][j]);
printf("\n");
}
printf("调整后的输出层权矩阵:\n");
for (i = 0; i < h; i++) {
for (j = 0; j < OUT_COUT; j++)
printf("%f ", w[i][j]);
printf("\n");
}
for (i = 0; i < IN_COUT; i++) //把结果复制回结构体
for (j = 0; j < h; j++)
(*bp).v[i][j] = v[i][j];
for (i = 0; i < h; i++)
for (j = 0; j < OUT_COUT; j++)
(*bp).w[i][j] = w[i][j];
printf("bp网络训练结束!\n");

return 1;
}

int UseBp(bp_nn *bp) { //使用bp网络
float Input[IN_COUT];
double O1[50];
double O2[OUT_COUT]; //O1为隐层输出,O2为输出层输出
while (1) { //持续执行,除非中断程序
printf("请输入3个数:\n");
int i, j;
for (i = 0; i < IN_COUT; i++)
scanf("%f", &Input[i]);
double temp;
for (i = 0; i < (*bp).h; i++) {
temp = 0;
for (j = 0; j < IN_COUT; j++)
temp += Input[j] * (*bp).v[j][i];
O1[i] = fnet(temp);
}
for (i = 0; i < OUT_COUT; i++) {
temp = 0;
for (j = 0; j < (*bp).h; j++)
temp += O1[j] * (*bp).w[j][i];
O2[i] = fnet(temp);
}
printf("结果: ");
for (i = 0; i < OUT_COUT; i++)
printf("%.3f ", O2[i]);
printf("\n");
}
return 1;
}

int main()
{
float x[COUT][IN_COUT] = {{0.8,0.5,0},
{0.9,0.7,0.3},
{1,0.8,0.5},
{0,0.2,0.3},
{0.2,0.1,1.3},
{0.2,0.7,0.8}}; //训练样本
int y[COUT][OUT_COUT] = {{0,1},
{0,1},
{0,1},
{1,0},
{1,0},
{1,0}}; //理想输出
bp_nn bp;

InitBp(&bp); //初始化bp网络结构
TrainBp(&bp, x, y); //訓練bp神經網路
UseBp(&bp); //測試bp神經網路

return 1;
}
創作者介紹
創作者 shadow 的頭像
shadow

資訊園

shadow 發表在 痞客邦 留言(0) 人氣()