基于光譜哈希的圖像分割方法之計算機研究

來源: www.bnzqvc.live 作者:vicky 發布時間:2019-09-29 論文字數:27584字
論文編號: sb2019090815315927689 論文語言:中文 論文類型:碩士畢業論文
本文是一篇計算機論文,本文在分析復雜結構圖像特點后,提出基于像素級特征語義的相似度度量函數,通過比較兩兩像素之間的相似度距離,得到圖像的相似度矩陣,實現基于聚類思想的圖像
本文是一篇計算機論文,本文研究針對復雜結構圖像,受人類感知研究啟發提出基于多視圖特征語義的圖像分割算法,結合語義哈希模型加速優化過程,獲得理想的分割效果。

第一章  緒論

1.1  研究背景與意義
1.1.1  研究背景
用眼睛觀察世界時,我們的大腦不僅能識別物體的邊緣輪廓,進行分類,還能識別它們的差異以及相互之間的關系。這種將圖像不同區域區分開來的過程稱為圖像分割[1]。圖像分割是計算機視覺領域的基礎研究,已在可視化[2]、三維重建[3]、自動駕駛[4]等方面得到了廣泛應用。
現有的圖像分割方法有很多種:
閾值法[5]適用于目標灰度值均勻分布在背景灰度值之外的圖像,對背景較為復雜的圖像分割效果不佳;
基于邊緣檢測的方法[6]對于圖像中的噪聲比較敏感;
基于區域的方法[7]往往會使得分割結果出現過分割、欠分割的現象;
基于聚類[8]的分割方法需要人工干預(初試位置的選擇和參數的人工設置),參數選擇不適會大概率的影響到聚類結果的正確性和精確性; 基于超像素[9]的圖像分割方法由于特征選擇問題,缺乏物體獨立性指導,導致對于物體邊界的精確度有所欠缺;
基于人工神經網絡[7]和深度網絡的圖像分割方法在整體性能比較突出,但是存在需要使用大量的標注訓練數據、分割結果依賴訓練數據的問題。
精準的圖像分割作為基礎研究在計算機視覺、計算機圖形學、機器人視覺等相關領域起著至關重要的作用。隨著越來越多的圖像種類的出現,對圖像分割算法提出了新的挑戰和要求。本文將在當前研究基礎上,針對圖像分割在某類圖像或某類圖像特征方面進行改進和研究。
............................

1.2  國內外研究現狀
目前圖像分割領域有相當多的研究成果和方法,本文主要對針對超像素算法、基于聚類的算法和基于深度學習的算法做了相關研究和文獻綜述。
超像素算法利用像素間的相似性將像素組合成具有一定意義的區域,提供便于計算的圖片特征,得到一個精確度比較高的分割結果。基于圖的方法包括 Boykov 等人于 2006 年提出的 Graph-based[10]算法,圖像中每個像素看成一個普通頂點,通過將頂點分到前景和背景兩個集合得到分割結果;Wu 等提出 Ncut[11]算法將圖像的分割問題轉化為求解對應圖的最小割問題。基于梯度計算的方法包括 Mesnshift[12]算法,該方法通過定位目標函數的局部最大,將具有相同模點的像素聚在一起形成超像素區域。Turbopixel[13]以及 SLIC[14]通過計算圖像中像素間的距離和顏色相似度計算得到超像素。但超像素算法有時不能很精確的計算得到圖像邊界,即有些精細邊界的分割存在不準確的問題。
基于聚類的算法首先確定聚類中心,通過不斷調整和優化聚類中心,使類內方差值達到最小實現聚類。其中,K-means[15]算法計算速度快,復雜度低(O(n));模糊 C-均值算法(FCM)[16]不需要人工干預,但聚類結果的正確性受初始化參數的影響;當遇到具有較多特征數目的大數據集時,可以使用 FCM 算法,不能快速收縮從而得到聚類結果;Mean-Shift算法[17]通過計算滑動窗口中的均值來更新中心點的候選框,以此找到每個簇的中心點,該方法能得到較為理想的聚類結果。譜聚類[18]  算法將帶權無向圖劃分為最優子圖以達到聚類的目的。基于聚類的算法往往需要人工設置參數,當參數不合適時,就有可能影響到聚類結果的正確性,且運行部分算法如深度學習算法時,如數據量較大,算法的實時性較差,無法快速得到我們想要的分割結果。
..........................

第二章  相關知識

2.1  圖像分割算法
圖像分割的方法種類繁多,在本章中對幾種主流的分割算法做了概述,并對其中較為經典的算法做了介紹,如超像素算法中的 SLIC 算法,聚類算法中的 K-means 算法,神經網絡算法中的 FCN 算法。
2.1.1  超像素算法 
超像素算法利用像素間的相似性將像素組合成具有一定意義的區域,來提供便于計算的圖片特征,常作為圖像分割算法的預處理步驟,和其他算法結合得到一個高精確度的分割結果。超像素算法常分為兩大類,在基于圖論的超像素方法中,通過計算像素之間的相似性得到表示成節點的像素間的邊權值,此時通過移出特定的邊,將原圖劃分為若干個子圖完成圖像分割。常見的基于圖論的方法包括 Graph-based 算法、NCut 算法等。基于梯度上升的方法有 Mesnshift 算法、Quick-Shift、Turbopixel 以及  SLIC 算法,它們通過不斷迭代來細化超像素直到收斂,以此來優化分割結果。
當我們用一些標準對現有超像素方法進行分割速度、邊界連接能力和分割性能評估時,我們發現簡單線性迭代聚類(Simple Linear Iterative Clustering ,SLIC)算法分割效果優于其他算法,不僅對圖像邊界有較好的保留度,還具有更快、更高的存儲效率,最終生成的超像素也更為緊湊。
Achanta 等人在 2012 年提出的 SLIC 算法,通過計算每個像素的 5 維向量間的距離得到像素間的相似性,然后通過聚類得到分割結果。該 5 維向量由每個像素的 Lab 顏色值和空間位置坐標組成。N 為圖像中總像素的個數,則在初始化時,在每間隔S = √?????個像素時進行采樣得到 k 個初始聚類中心。為了避免將超像素定位在邊緣上和噪聲上,通常將中心移動到 3*3 領域中梯度位置最低的位置。這種在超像素中心周圍的區域 2S*2S 中進行限制搜索的方法,與 K-means 聚類中每個像素與所有聚類中心進行距離計算的常規搜索相比,明顯減少了像素點與聚類中心的距離計算。
..............................
2.2  語義哈希算法
語義檢索[23]通過一組哈希函數將高維空間向量映射到低維空間,使新空間向量間的距離與原空間保持一致。為了解決算法中計算開銷較大,耗時過長的問題,引入語義哈希模型,加速尋優過程。根據監督信息的有無可以分三類:無監督算法,沒有標記數據的存在,僅利用數據本身進行檢索;半監督算法,監督信息不足,存在少量的標記數據以及大量的未標記數據,同樣可以得到較好的結果,有監督算法,根據標記數據訓練模型,但大部分的監督哈希方法的學習效率比非監督哈希慢。
2.2.1  算法綜述
有監督哈希算法可以根據標記數據訓練模型,得到理想的結果。revor 等提出的二進制重建嵌入[24](Binary Reconstruction Embedding, BRE),通過最小化數據項在原始空間距離和漢明空間距離之間的誤差構建哈希函數,經過哈希函數得到各數據相應的二進制表示,
最終得到彼此之間的漢明距離。當數據集樣本較大及二進制較長時,BRE 算法需要較長的訓練時間才能得到最終結果。Wei liu 等提出的基于核函數的哈希方法(Supervised Hash with Kernels,  KSH)[25],首先使用內積法計算漢明距離得到相互之間的相似度,使用貪婪算法逐位采用梯度下降求得最優解。但是核函數在高維特征上的訓練和測試的開銷非常大。Mohammad  等提出了損失最小哈希(Minimal loss Hashing, MLH)[26],通過訓練一種保存相互之間的相似度的投影矩陣作為哈希函數,將高維數據映射成二進制編碼。有監督的離散哈希(Supervised Discrete Hashing,SDH)[27],通過引入一個輔助變量,對目標進行了重新表述,使其能夠通過正則化算法得到有效解。最終以有效的計算方式獲得高質量的離散解,從而能夠處理海量數據集。
..............................
第三章  基于特征語義模型的復雜結構圖像分割算法......................................... 13
3.1  復雜結構圖像 .................................. 13
3.2  問題描述 ................................... 14
3.3  本文方法 ..................................... 15
第四章  多視圖特征語義無監督圖像分割算法 ..................................... 23
4.1  研究動機 .......................................... 23
4.2  本文方法 .................................... 24
第五章  總結與展望........................................ 39
5.1  工作總結 ....................................... 39
5.2  工作展望 ....................................... 39

第四章  多視圖特征語義無監督圖像分割算法

4.1  研究動機
圖像分割是計算機視覺中基礎的研究問題之一,是物體識別、機器人視覺和醫學圖像處理等許多應用的基礎,其目的是將感興趣的區域標記出來。因為不同的區域可能會有不同的背景和不同的視覺條件,因此圖像分割這一過程具有挑戰性。

.............................

第五章  總結與展望

5.1  工作總結
圖像分割是計算機視覺中基礎的研究問題之一,從上世紀七十年代以來就受到眾多研究人員的高度重視。針對復雜結構的圖像,傳統的方法會出現分割準確度下降、過分割或欠分割、人工參與過多和調參困難等問題,針對這兩種類型的復雜結構圖像,提出像素級語義相似度度量函數,結合語義哈希模型提出分割算法并實現。通過對比實驗,從仿真時間和評價指標方面驗證了本文方法的有效性。基于人類感知研究成果,對于不同類型的圖像,不同視圖特征(顯著性、景深、顏色等)的貢獻度是不相同的。傳統分割算法將多視圖特征合并為長向量進行計算,沒有考慮不同視圖特征對不同圖像的貢獻度不同的問題。本文為解決這一問題,提出多視圖特征分割算法。在圖像多視圖特征空間,通過最小化特征相似度距離函數,提出特征選擇矩陣,尋找最優的特征投影平面,使得多視圖特征投影具有最好的圖像分割效果。通過與最新的無監督圖像分割算法和基于深度學習的分割算法進行的對比實驗,驗證了本文算法的有效性和先進性。
本文的工作包括:
(1)對當前圖像分割算法、語義哈希算法進行文獻綜述,分析和發現存在的問題。
(2)針對兩種類型的復雜結構圖像,提出像素級語義相似度度量函數,結合語義哈希模型提出分割算法并實現。通過對比實驗,從仿真時間和評價指標方面驗證了本文方法的有效性。
(3)我們提取空間、顏色、顯著性和深度等多視圖特征后,將特征通過潛在的問題解平面進行投影得到低維特征,提出多視圖特征語義圖像分割算法并實現。通過在 BSD500,Pascal  VOC  2012 等數據庫與最新無監督分割算法、深度學習算法進行定性和定量對比實驗,驗證了本文方法的優異性。
參考文獻(略)

原文地址:http://www.bnzqvc.live/jsjlw/27689.html,如有轉載請標明出處,謝謝。

您可能在尋找計算機論文方面的范文,您可以移步到計算機論文頻道(http://www.bnzqvc.live/jsjlw/)查找


上一篇:基于卷積神經網絡的多人骨架提取算法之計算機研究
下一篇:沒有了
彩票6加1怎么玩 2019年赚钱很难 领养区块猫可赚钱吗 南京鲜花店赚钱吗 内蒙古快三 雪缘园及时比分 Q号 之间赚钱会有记录吗 电竞比分网dota 做婚介老师赚钱吗 麻将来了低分老是400 色情主播是好赚钱吗 27号竞彩足球比分直播 免费版老区赚钱攻略 球探足球比分 心内科赚钱还是心外科赚钱 哪里卖大唐麻将外挂 facebook点击赚钱