|
發布時間: 2017-4-23 16:20
正文摘要:對于現在流行的深度學習,保持學習精神是必要的——程序員尤其是架構師永遠都要對核心技術和關鍵算法保持關注和敏感,必要時要動手寫一寫掌握下來,先不用關心什么時候用到——用不用是管理問題,會不會寫是技術問題 ... |
求指導,我用你的代碼運行一個不一樣的東西,結果很失望![]() import java.util.Random; public class BpDeep{ public double[][] layer;//神經網絡各層節點 public double[][] layerErr;//神經網絡各節點誤差 public double[][][] layer_weight;//各層節點權重 public double[][][] layer_weight_delta;//各層節點權重動量 public double mobp;//動量系數 public double rate;//學習系數 public BpDeep(int[] layernum, double rate, double mobp){ this.mobp = mobp; this.rate = rate; layer = new double[layernum.length][]; layerErr = new double[layernum.length][]; layer_weight = new double[layernum.length][][]; layer_weight_delta = new double[layernum.length][][]; Random random = new Random(); for(int l=0;l<layernum.length;l++){ layer[l]=new double[layernum[l]]; layerErr[l]=new double[layernum[l]]; if(l+1<layernum.length){ layer_weight[l]=new double[layernum[l]+1][layernum[l+1]]; layer_weight_delta[l]=new double[layernum[l]+1][layernum[l+1]]; for(int j=0;j<layernum[l]+1;j++) for(int i=0;i<layernum[l+1];i++) layer_weight[l][j][i]=random.nextDouble();//隨機初始化權重 } } } //逐層向前計算輸出 public double[] computeOut(double[] in){ for(int l=1;l<layer.length;l++){ for(int j=0;j<layer[l].length;j++){ double z=layer_weight[l-1][layer[l-1].length][j]; for(int i=0;i<layer[l-1].length;i++){ layer[l-1][i]=l==1?in[i]:layer[l-1][i]; z+=layer_weight[l-1][i][j]*layer[l-1][i]; } layer[l][j]=1/(1+Math.exp(-z)); } } return layer[layer.length-1]; } //逐層反向計算誤差并修改權重 public void updateWeight(double[] tar){ int l=layer.length-1; for(int j=0;j<layerErr[l].length;j++) layerErr[l][j]=layer[l][j]*(1-layer[l][j])*(tar[j]-layer[l][j]); while(l-->0){ for(int j=0;j<layerErr[l].length;j++){ double z = 0.0; for(int i=0;i<layerErr[l+1].length;i++){ z=z+l>0?layerErr[l+1][i]*layer_weight[l][j][i]:0; layer_weight_delta[l][j][i]= mobp*layer_weight_delta[l][j][i]+rate*layerErr[l+1][i]*layer[l][j];//隱含層動量調整 layer_weight[l][j][i]+=layer_weight_delta[l][j][i];//隱含層權重調整 if(j==layerErr[l].length-1){ layer_weight_delta[l][j+1][i]= mobp*layer_weight_delta[l][j+1][i]+rate*layerErr[l+1][i];//截距動量調整 layer_weight[l][j+1][i]+=layer_weight_delta[l][j+1][i];//截距權重調整 } } layerErr[l][j]=z*layer[l][j]*(1-layer[l][j]);//記錄誤差 } } } public void train(double[] in, double[] tar){ double[] out = computeOut(in); updateWeight(tar); } } import java.util.Arrays; public class MyBPtest1{ public static void main(String[] args){ //初始化神經網絡的基本配置 //第一個參數是一個整型數組,表示神經網絡的層數和每層節點數,比如{3,10,10,10,10,2}表示輸入層是3個節點,輸出層是2個節點,中間有4層隱含層,每層10個節點 /////////第二個參數是學習步長(過小會使收斂速度太慢;過大則會使預測不準,跳過一些細節), /////////第三個參數是動量系數(使波動小的預測重新振蕩起來) BpDeep bp = new BpDeep(new int[]{5,5,1}, 0.15, 0.9); ////////對于輸入樣本如果只有一個數。沒關系,大不了{,}第二項里的data和target全為0,,,,!!!!這理解是錯誤 ////////因為我們設定了輸入層為2,才會有兩個輸入({,},{,}}這樣的東西;同理輸入層也為如此 ////////所以說如果是5個輸入,一個輸出對于data就{{,,,,},{,,,,}。。。。。。};;;;;對于target{,,,,} double[][] data = new double[][]{{192,195,194,193,193}, {195,194,193,193,195},{194,193,193,195,201}, {193,193,195,201,205},{193,195,201,205,205}, {195,201,205,205,203},{201,205,205,203,203}, {205,205,203,203,202},{205,203,203,202,206}, {203,203,202,206,204},{203,202,206,204,204}, {202,206,204,204,203},{206,204,204,203,199}, {204,204,203,199,195},{204,203,199,195,182}, {203,199,195,182,179},{199,195,182,179,178}, {195,182,179,178,176},{182,179,178,176,175}, {179,178,176,175,173},{178,176,175,173,175}, {176,175,173,175,182},{175,173,175,182,183}, {173,175,182,183,185},{175,182,183,185,179}}; //設置目標數據,對應4個坐標數據的分類 double[][] target = new double[][]{{195},{201},{205},{205},{203}, {203},{202},{206},{204},{204},{203},{199},{195},{182},{179}, {178},{176},{175},{173},{175},{182},{183},{185},{179},{182}}; //迭代訓練5000次 ///////這里我們沒有設置訓練到了某一精確度自動停止,而是實打實的訓練這些次數 for(int n=0;n<5000;n++) for(int i=0;i<data.length;i++) bp.train(data[i], target[i]); //根據訓練結果來檢驗樣本數據 for(int j=0;j<data.length;j++){ double[] result = bp.computeOut(data[j]); System.out.println(Arrays.toString(data[j])+":"+Arrays.toString(result)); } //根據訓練結果來預測一條新數據的分類 double[] x = new double[]{192,195,194,193,193}; double[] result = bp.computeOut(x); System.out.println(Arrays.toString(x)+":"+Arrays.toString(result)); } } |