在進行模型訓練時,我們需要構(gòu)造訓練樣本和設(shè)計損失函數(shù),才能利用梯度下降對網(wǎng)絡(luò)進行訓練。將一幅圖片輸入到y(tǒng)olo模型中,對應(yīng)的輸出是一個7x7x30張量,構(gòu)建標簽label時對于原圖像中的每一個網(wǎng)格grid都需要構(gòu)建一個30維的向量。對照下圖我們來構(gòu)建目標向量:查看全文>>
不斷地交換下去就可以將最大的那個數(shù)放到隊列的尾部。然后重頭再次交換,直到將數(shù)列排成有序數(shù)列。接下來我們以以數(shù)列[5, 9, 3, 1, 2, 8, 4, 7, 6]為例,演示冒泡排序的實現(xiàn)過程,最初的數(shù)列順序如下圖所示:查看全文>>
?復雜度分析是估算算法執(zhí)行效率的方法,公式O(f(n))表示算法的復雜度,此方法即為大O復雜度表示法O(f(n))中n表示數(shù)據(jù)規(guī)模,f(n)表示運行算法所需要執(zhí)行的指令數(shù)。下面的代碼非常簡單,求 1,2,3…n 的累加和,我們要做的是估算它的執(zhí)行效率。查看全文>>
使用超平面進行分割數(shù)據(jù)的過程中,如果我們嚴格地讓所有實例都不在最大=大間隔之間,并且位于正確的一邊,這就是硬間隔分類。硬間隔分類有兩個問題,首先,它只在數(shù)據(jù)是線性可分離的時候才有效;其次,它對異常值非常敏感。查看全文>>
Seaborn基于 Matplotlib核心庫進行了更高級的API封裝,可以輕松地畫出更漂亮的圖形,而Seaborn的漂亮主要體現(xiàn)在配色更加舒服,以及圖形元素的樣式更加細膩。查看全文>>
SOM 即自組織映射,是一種用于特征檢測的無監(jiān)督學習神經(jīng)網(wǎng)絡(luò)。它模擬人腦中處于不同區(qū)域的神經(jīng)細胞 分工不同的特點,即不同區(qū)域具有不同的響應(yīng)特征,而且這一過程是自動完成的。SOM 用于生成訓練樣本的低維 空間,可以將高維數(shù)據(jù)間復雜的非線性統(tǒng)計關(guān)系轉(zhuǎn)化為簡單的幾何關(guān)系,且以低維的方式展現(xiàn),因此通常在降維問題中會使用它。查看全文>>