EM算法也稱期望最大化(Expectation-Maximum,簡稱EM)算法。 它是一個(gè)基礎(chǔ)算法,是很多機(jī)器學(xué)習(xí)領(lǐng)域算法的基礎(chǔ),比如隱式馬爾科夫算法(HMM)等等。 EM算法是一種迭代優(yōu)化策略,由于它的計(jì)算方法中每一次迭代都分兩步, 其中一個(gè)為期望步(E步), 另一個(gè)為極大步(M步), 所以算法被稱為EM算法(Expectation-Maximization Algorithm)。查看全文>>
?人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,主要研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能理論方法技術(shù),以及應(yīng)用系統(tǒng)的一門新的技術(shù)學(xué)科。人工智能需要大數(shù)據(jù)來支撐,主要是識別類、感應(yīng)器方面,現(xiàn)今生活中的智慧家電、智慧工業(yè)、語言識別等都運(yùn)用了人工智能技術(shù)。而機(jī)器人是可編程機(jī)器,在人工智能的基礎(chǔ)上增加物理外殼,是人工智能研究的產(chǎn)物,是實(shí)體的。查看全文>>
數(shù)據(jù)集中的數(shù)據(jù)類型有很多種,除了連續(xù)的特征變量之外,最常見的就是類別型的數(shù)據(jù)了,比如人的性別、學(xué)歷、愛好等,這些數(shù)據(jù)類型都不能用連續(xù)的變量來表示,而是用分類的數(shù)據(jù)來表示。 Seaborn針對分類數(shù)據(jù)提供了專門的可視化函數(shù),這些函數(shù)大致可以分為如下三種:查看全文>>
LR(Logistic Regression)和線性回歸(Linear Regression)是兩種常見的回歸算法,用于處理不同類型的問題。下面是它們的區(qū)別與聯(lián)系查看全文>>
在神經(jīng)網(wǎng)絡(luò)中,權(quán)值的共享是一種優(yōu)化技術(shù),通常用于減少模型參數(shù)數(shù)量以及提升模型的泛化能力。它在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中得到廣泛應(yīng)用,特別是在處理圖像和其他類似結(jié)構(gòu)的數(shù)據(jù)時(shí)。查看全文>>
深度學(xué)習(xí)中模型不收斂并不一定意味著這個(gè)模型無效。模型不收斂可能是由多種原因引起的,而且可以采取一些方法來解決這個(gè)問題。以下是一些可能的原因和對應(yīng)的解決方法。查看全文>>