Hashing Michael Tsai 2013/06/04.

Slides:



Advertisements
Similar presentations
第七章 获利能力分析. 第一节 获利能力分析概述 获利能力的内涵 获利能力(盈利能力)是指企业获取利润的能力。 评价方法: ①利润与销售收入之间的比率 ②利润与资产之间的比率.
Advertisements

Course 1 演算法: 效率、分析與量級 Algorithms: Efficiency, Analysis, and Order
基本概論 Basic concepts.
Chapter 10 搜尋(search).
系統分析與設計 第九章 資料設計.
数据结构 杨鹏宇 QQ: 版权所有,转载或翻印必究
Introduction 基本概念 授課老師:蕭志明
資料結構 第9章 搜尋.
第 九 章 搜尋(Search) 課程名稱:資料結構 授課老師:_____________.
門診特定藥品重複用藥費用核扣方案 座談會 常務理事史宗良藥師.
中部科學工業園區台中園區擴建 用地(原大肚山彈藥分庫)開發計畫
Performance Evaluation
第8章 查找 数据结构(C++描述).
什麼是教育行動研究 ◎從例子中發現 行動研究的特色為何?.
書名 Java於資料結構與演算法之實習應用
CH1 Number Systems and Conversion
IV. Implementation IV-A Method 1: Direct Implementation 以 STFT 為例
Large-Scale Malware Indexing Using Function-Call Graphs
Chapter 7 Search.
Chapter 4 歸納(Induction)與遞迴(Recursion)
計算方法設計與分析 Design and Analysis of Algorithms 唐傳義
Chap 10 SQL定義、操作與控制指令.
Course 4 搜尋 Search.
第十章 排序與搜尋.
第 7 章 陣列 (Array).
第 1 章 演算法分析.
搜尋資料結構 Search Structures.
演算法方式總覽 The Divide-and-Conquer Strategy (個各擊破)(binary Searching、Quick Sort…. ) The Greedy Method(貪婪演算法) (Prim MST、Kruskal MST、Djikstra's algorithm) Dynamic.
Graph 2 Michael Tsai 2012/5/1 連載: 學生上課睡覺姿勢大全
组合逻辑3 Combinational Logic
第14章 其它DSP设计库 14.1 总线控制库 14.2 复数信号库 14.3 Gates库 14.4 状态机函数库
第九章 查找 2018/12/9.
第 七 章 樹狀結構 課程名稱:資料結構 授課老師:________ 2019/1/1.
Ch4.SQL Server 2005資料庫組成員元件介紹
数据结构 -Maple Related- 牟克典 数学科学学院信息科学系 2012秋季 1/16/2019.
String Matching Michael Tsai 2012/06/04.
Data Structure.
数据结构 第9章 查找 什么是查找?? 静态查找 动态查找 哈希表 数据结构.
数据结构 第八章 查找.
樹 2 Michael Tsai 2013/3/26.
感謝同學們在加分題建議. 我會好好研讀+反省~
B+ Tree.
Chapter 5 Recursion.
Sorting in Linear Time Michael Tsai 2013/5/21.
鄧姚文 資料結構 第一章:基本概念 鄧姚文
105-1 Data Structure Exam /12/27.
Hash(雜湊) 授課者:李驕芸.
作業系統 Operating System 第四單元 檔案系統
第十二章 文件管理 (Chapter 5 File Management)
Linked Lists Prof. Michael Tsai 2013/3/12.
公钥密码学与RSA.
String Matching Michael Tsai 2013/05/28.
Course 10 削減與搜尋 Prune and Search
演算法時間複雜度 (The Complexity of Algorithms)
Amortized Analysis Michael Tsai 2013/11/14.
Disjoint Sets Michael Tsai 2013/05/14.
演算法分析 (Analyzing Algorithms)
唐常杰 四川大学计算机学院 计算机科学技术系
Hashing Michael Tsai 2017/4/25.
Multi-threaded Algorithm 3
5. Combinational Logic Analysis
學習面積之前,要先知道…… 面積是用來表示面的大小 面的組成來源: 點 線 面 ․ ․ ․ ․ ․
第6章 详细设计 Detailed Design
Introduction to Computer Security and Cryptography
Data Structure.
演講綱要 1. 簡介資料結構 2. Hashing (赫序) 模式 3. 如何存取小群的文字資料 4. 如何存取大群的文字資料
Graph 1 Michael Tsai 2012/4/24 連載: 學生上課睡覺姿勢大全
JAVA 程式設計與資料結構 第十七章 Tree.
Presentation transcript:

Hashing Michael Tsai 2013/06/04

有沒有一種天方夜壇 =O(1) (key, data) Insert Search Delete 神秘的資料結構 Hint: “以空間換取時間”

概念 很多很多有編號的櫃子 問: “菜瓜布”的資料去哪找? (“菜瓜布”, 資料) 管理員 管理員: “菜瓜布” 對應到1028號櫃子 如果箱子夠多, 則花費在一個箱子裡面尋找的時間=O(1)

概念 Hash table Hash function: h(k) 很多很多有編號的櫃子 問: “菜瓜布”的資料去哪找? 管理員 管理員: “菜瓜布” 對應到1028號櫃子 key: 拿來當索引的東西 例如: “菜瓜布” T=|U|: 所有可能的key的數目 n=|K|: 所有要存入的pair的數目 1028 Key density: n/T Load density (load factor): n/sm 櫃子數目: m 每個位子可以放的資料數:s sm: 所有可以放數櫃子資料數目

概念: Hash Table 很多很多有編號的櫃子 U: 所有可能出現的各種key K: 結果真的出現在input的各種key

概念: Direct-address Table 很多很多有編號的櫃子 U: 所有可能出現的各種key 裡面存資料 K: 結果真的出現在input的各種key 如果 𝐾 ≪ 𝑈 ,櫃子就浪費很多空間

一些定義 h(k): hash function hash function 把key對應到一個數值(通常為櫃子編號) (但是沒關係) 如果ℎ 𝑘 1 =ℎ 𝑘 2 , 則 𝑘 1 , 𝑘 2 are synonyms with respect to ℎ. 最簡單的hash function: k%m (k mod m) collision: 要把資料存進某櫃子的時候, 該櫃子已經有東西了 overflow:要把資料存進某櫃子的時候, 該櫃子已經滿了 if s==1, 則每次collision都會造成overflow (通常s==1)

為什麼是O(1) 當沒有overflow的時候: 計算hash function的時間: O(1) 進到某一個櫃子去insert, delete, search的時間都是O(1) worst case為尋找s個空間的時間: 固定 所以為O(1) 剩下的問題: (1) 當collision發生的時候怎麼處理? (2) 怎麼implement一個好的hash function?

Collision 處理 兩種常用處理collision的方法: 注意: 要確保能夠下次也能找到同一個地方! (2) Chaining (1) Open addressing Full! Full! Find another empty cabinet 多出來的吊在下面

Open addressing – Linear probing 有好幾種方法: (1) Linear probing T[(h(k)+1)%m], T[(h(k)+2)%m], … Insert的時候順著往下找 (找的動作又叫做probe): 一直找到 有空位 填入 回到原來的位置 h(k)了, 則沒有空位可能要擴大. (load factor 永遠小於1) Search的時候, 一樣是從T[h(k)]開始往下找, 一直找到 有空位k不在table裡 找到了, k在T[(h(k)+j)%m]的位置 回到原本的位置h(k)了, k不在table裡面

Open addressing 好處: 利用hash table裡面沒有儲存東西的空間 不用使用記憶體來存pointer, 省下來的記憶體可以開更大的hash table 壞處: 尋找overflow出去的element需要花額外的時間(不是O(1)了) 讓在櫃子裏面的key容易集結(clustering)在一起 平均尋找時間更長

Open addressing – General Form 我們把hash function h變成以下的形式: h: 𝑈× 0,1,…,𝑚−1 也就是我們probe的順序為 (probing sequence) ℎ 𝑘,0 ,ℎ 𝑘,1 ,ℎ 𝑘,2 ,ℎ 𝑘,𝑚−1 以上為 0,1,2,…,𝑚−1 的排列組合 所以Linear probing的可以寫成: h(k,i)=(h’(k)+i))%m h’(k)是原本的hash function Linear probing總共只有m種probing sequence

Open addressing – Linear probing Primary clustering: 某些open addressing的probing方法會產生一長串填滿的格子 Input sequence of keys: {8,16,18,5,31,15} 8 8 16 8 16 18 8 16 18 5 8 16 31 18 5 8 16 31 18 5 15 [0] [1] [2] [3] [4] [5] [6]

Open addressing – Quadratic probing ℎ 𝑘,𝑖 = ℎ ′ 𝑘 + 𝑐 1 𝑖+ 𝑐 2 𝑖 2 %m, c 1 , c 2 為正常數 例1: 我們可以用ℎ 𝑘,𝑖 = ℎ ′ 𝑘 + 𝑖 2 %m ℎ ′ 𝑘 %𝑚, ℎ ′ 𝑘 + 1 2 %𝑚, ℎ ′ 𝑘 + 2 2 %𝑚,…, ℎ ′ 𝑘 + 𝑚−1 2 %𝑚 例2: 如果𝑚= 2 𝑛 , 則我們可以用ℎ 𝑘,𝑖 = ℎ ′ 𝑘 + 𝑖 2 + 𝑖 2 2 %𝑚 ℎ ′ 𝑘 %𝑚, ℎ ′ 𝑘 +1 %𝑚, ℎ ′ 𝑘 +3 %𝑚, ℎ ′ 𝑘 +6 %𝑚, ℎ ′ 𝑘 +10 %𝑚,… ℎ ′ 𝑘 %𝑚, ℎ ′ 𝑘 +1 %𝑚, ℎ ′ 𝑘 +3 %𝑚, ℎ ′ 𝑘 +6 %𝑚, ℎ ′ 𝑘 +10 %𝑚,… 用這些方法可以使得clustering的現象較為減輕: Secondary Clustering 只有當一開始的hash function產生一樣的位置才會造成一樣的probing sequence ℎ 𝑘 1 ,0 ==ℎ( 𝑘 2 ,0) implies ℎ 𝑘 1 ,𝑖 ==ℎ( 𝑘 2 ,𝑖) 和linear probing一樣, 只有m種probing sequence (開始的h’(k)決定sequence)

Open addressing – Double hashing ℎ 𝑘,𝑖 = ℎ 1 𝑘 +𝑖 ℎ 2 𝑘 %𝑚 為open addressing最好的方法之一 例子: ℎ 1 𝑘 =𝑘 % 𝑚, ℎ 2 𝑘 =1+ 𝑘% 𝑚−1 如果k=123456, m=701, ℎ 1 𝑘 =80, ℎ 2 𝑘 =257 一開始找T[80], 後面每隔257格找一次 關鍵: 即使 ℎ 1 𝑘 1 == ℎ 1 ( 𝑘 2 ), ℎ 2 𝑘 1 == ℎ 2 ( 𝑘 2 ) 應該不成立 因此probing sequence有 𝑚 2 種! (通常須要求m= 2 𝑛 ) Double hashing是最接近”uniform hashing”的方法 Uniform hashing: 任何probing sequence出現的機率是一樣的 也就是 0,1,2,…,𝑚−1 的任一種排列組合出現的機率是一樣的

來做一些分析(沒有推導) 在Uniform Hashing的假設下: Expected number of probes: 尋找一個key時平均所需要找(比較)的key個數 因為其他的operation都只需要O(1), 所以這個動作決定了search的time complexity 𝛼: load factor= n/m < 1 失敗(找到空位): 1 1−𝛼 =1+𝛼+ 𝛼 2 + 𝛼 3 +… 成功: 1 𝛼 ln 1 1−𝛼 (詳細的證明參見 Cormen p.274-276) Worst case? 全部都連在一起, 全部都填滿了 O(n) 第一次一定要找 第二次有𝛼機率要找 第三次有 𝛼 2 機率要找

Chaining 之前的方法的缺點? 尋找過程中, 需多其他的資料的hash值和現在要找的key k的hash值根本就不一樣 有點冤枉 所以採取”掛勾”的方法 每個櫃子是一個linked list 搜尋的時候只會找掛在下面的 (h(k)都一樣) Not here Not here Not here 結果在這邊

Chaining – Worst case Worst case: 全部都塞在同一個櫃子下面的linked list time complexity這樣是? O(n) 小小的進步: 底下可以用binary search tree (之後有balanced 版) 可以進步到𝑂 log 𝑛

Chaining - Expected performance 每個櫃子的chain上面平均有幾個pair? n: 總共存入的資料pair數目 m: 櫃子數目 所以假設使用simple uniform hashing的話 也就是存到每個櫃子的機率相等 平均一個chain有n/m個pair (𝛼個pair) 這也是如果找不到的話, 平均需要比較的次數 加上hash本身要花的時間, 總共為Θ 1+𝛼 如果是找得到的話, 平均需要比較的次數為1+ 𝛼 2 − 𝛼 2𝑛 加上hash本身要花的時間, 總共仍為Θ 1+𝛼 (詳細證明可見Cormen p.260) 因此總體來說, 只要𝑛=𝑂 𝑚 , 𝛼= 𝑛 𝑚 = O m m =O(1) n為m的一個比例時, 總時間可為constant time!

Hash function 先要知道的事情: 不可能讓所有key都map到不同的櫃子 (因為|K|遠大於櫃子數目) 目標: (1) 希望隨便取一個key, 則平均來說它存到任何一個櫃子的機率都是1/m (m為櫃子數目) (都是一樣的) (2) 計算hash function的時間為O(1) 當(1)符合時, 此hash function稱為simple uniform hashing (hash function)

一些hash function的例子 複習: h(k)把k轉成另外一個數字 (櫃子編號) (1) Division: h(k)=k%D 則結果為0 ~ D-1 通常我們可以把D設為櫃子數目 (2) Mid-square: h(k)=𝑏𝑖𝑡 𝑠 𝑖,𝑖+𝑟−1 ( 𝑘 2 ) 則結果為0 ~ 2 𝑟 −1, 所以通常櫃子數目為 2 𝑟

一些hash function的例子 (3) shift folding 用例子解釋: k=12320324111220 每隔幾位數切一份. 例如, 三位數: (櫃子有1000個) {123, 203, 241, 112, 20} h(k)=(123+203+241+112+20)%1000=699 (4)folding at the boundaries {123,302,241,211,20} h(k)=(123+302+241+211+20)%1000=897

一些hash function的例子 (5) digit analysis 假設先知道所有的key了 則需要把5位數轉換成2位數 則我們可以每次選某一位數來分類成10組 最不平均的3個位數可以刪掉 (記得: 最好可以使得分到某櫃子的機率都相等) (6) Multiplication Method: 取 0<A<1, then h(k)= 𝑚 (𝑘𝐴 % 1) (參看 Cormen p.264)

Key是string怎麼辦? 轉成數字! (然後再使用hash function) 可不可以把不同字串轉成一樣數字? 答: 可以! 反正hash function一樣已經會把不同key轉成一樣的櫃子號碼了 方法: (1) 把所有字串的character(數字)加起來, 進位的通通丟掉. (類似checksum) (2)把所有字串的character (數字)分別往左位移i格, i為該character在字串中的位置, 然後通通加起來. 舉例

Dynamic hashing 觀察: 當n/m比較大以後, O(1)就開始崩壞 (往O(n)方向移動) 應變: 所以要隨時觀察 n/m, 當它大過某一個threshold時就把hash table變大 觀察: 把hash table變大的時候, 需要把小hash table的東西通通倒出來, 算出每一個pair在大hash table的位置 然後重新放進大hash table 有個可憐鬼做insert正好碰到應該hash table rebuild的時候, 他就會等非常非常久. T_T

Dynamic hashing 目標: 重建的時候, 不要一次把所以重建的事情都做完 或許, 留一些之後慢慢做? 每個operation的時間都要合理 又叫做extendible hashing

例子 k h(k) A0 100 000 A1 100 001 B0 101 000 B1 101 001 C1 110 001 C2 110 010 C3 110 011 C5 110 101 h(k,i)=bits 0-i of h(k) Example: h(A0,1)=0 h(A1,3)=001=1 h(B1,4)=1001=9

Dynamic hashing using directories directory depth= number of bits of the index of the hash table 00 A0, B0 A1, B1 C2 C3 000 A0, B0 A1, B1 C2 C3 01 C5, overflow 001 10 010 k h(k) A0 100 000 A1 100 001 B0 101 000 B1 101 001 C1 110 001 C2 110 010 C3 110 011 C5 110 101 11 011 100 Insert C5 101 C5 h(C5, 2)=01=1 110 we increase d by 1 until not all h(k,d) of the keys in the cell are the same 111 動腦時間: 如果原本的要加入C1呢? 如果第二步驟後加入A4呢?答案: Horowitz p. 412-413

Dynamic hashing using directories 為什麼比較快? 只需要處理overflow的櫃子 如果把directory放在記憶體, 而櫃子資料放在硬碟 則 search只需要讀一次硬碟 insert最多需要讀一次硬碟(讀資料, 發現overflow了), 寫兩次硬碟(寫兩個新的櫃子) 當要把hash table變兩倍大時, 不需要碰硬碟(只有改directory)

Directoryless Dynamic hashing 假設hash table很大, 但是我們不想一開始就整個開來用 (initialization會花很大) 用兩個變數來控制的hash table大小: r, q hash table開啟的地方為 0, 2 𝑟 +𝑞−1之間 q~ 2 𝑟 −1之間使用h(k,r) 0~q-1 及 2 𝑟 ~ 2 𝑟 +𝑞−1之間使用h(k,r+1) r=2, q=2

Directoryless Dynamic hashing 每次輸入的時候, 如果現在這個櫃子滿了 則開一個新的櫃子: 2 𝑟 +𝑞 原本q櫃子裡面的東西用 h(k,r+1)分到q和 2 𝑟 +𝑞兩櫃子裡 注意有可能還是沒有解決問題 多出來的暫時用chain掛在櫃子下面 問:再加入C1呢? (Horowitz p.415) k h(k) A0 100 000 A1 100 001 B4 101 100 B5 101 101 C1 110 001 C2 110 010 C3 110 011 C5 110 101 000 A0 A1, B5 C2 C3 B4 00 B4, A0 A1, B5 C2 C3 01 C5 01 insert C5, full 10 10 11 11 100 r=2, q=0 r=2, q=1

Today’s Reading Assignment Cormen ch 11 (11.1, 11.2, 11.3 except 11.3.3, 11.4) Horowitz p. 410-416 (posted on the course web site)