NLP+Knowledge zdf.

Slides:



Advertisements
Similar presentations
渡黑水溝 郁永河. 2 戎克船:是明末清初時期往返兩岸的主要交通工具 ∗ 1. 關於台灣的開發歷史,我們到底了解多少呢?不妨試著說出 就我們所知有關台灣開發史的故事、小說、電影、音樂與大 家分享。 ∗ 2. 什麼是黑水溝?黑水溝為什麼會成為大陸移民渡海來臺時最 大的威脅? ∗ 3. 有聽過「六死三留一回頭」、「有唐山公,無唐山嬤」這兩.
Advertisements

元大京華證券 組員名單 : A 楊之奇 A 廖本揚 A 宋俊承 A 陳冠廷 A 郭峻瑋 A 指導教授 : 許素華 副教授.
五脏六腑话养生 董飞侠 医学博士 副教授 硕士研究生生导师 副主任中医师 美国贝勒医学院高级访问学者.
第十八章 林肯大郡 第十八章 林肯大郡災變緊急搶救應變措施 1997 年 8 月 18 日溫妮颱風襲台,汐止鎮 的林肯大郡山崩,遭崩場土石撞擊 1997 年 8 月 18 日溫妮颱風襲台,汐止鎮 的林肯大郡山崩,遭崩場土石撞擊造成二十八人罹難八十戶住宅倒塌的慘劇 此災變要喚起國人的重視 本章介紹搜救行動緊急應變措施。
1 門市服務丙級技術士 技能檢定介紹 門市服務丙級技術士報告注意事項 證照名稱:門市服務丙級技術士 發照單位:行政院勞工委員會 有效期限:終生有效 考照時間:每年一次,皆為第一梯次 1. 簡章與報名書表發售時間:每年 1 月 2. 報名時間:每年 1 月。 3. 學科考試時間:每年 3.
急性腹痛 急性疼痛. 急性疼痛 — 孙树杰、沈洪、 刘保池 (1)(1)(1)(1) 概 述 (2)(2)(2)(2) 重症急性腹痛的临床特点 (3)(3)(3)(3) 急性腹痛的分类及诊治 主要教学内容.
台北市立南港高工 建築科 Architecture 建築科之精神:活力、責任、效率 建築科之展望:共築美麗人生 綜合高中 土木建築學程簡介  綜高土建升學進路  未來出路展望  專業證照考試  未來展望圖例  綜高土建學程課程架構  土建群統一入學測驗考科  升學人數統計.
生源地助学贷款系统还款功能优化说明 评审三局 2015年5月.
慢性病防治與運動 你今天運動了嗎?.
日期: 六 福 村.
二、信用工具和外汇.
日月光·伯爵居项目介绍.
电子商务企业创新分析 ——京东商城
香港故事之 三年零八個月的艱苦歲月 組員: 梁珮瑩 吳遠莉 李琪 李青儀 方松皓.
为您扬帆,助您远航! 徽商银行特色新产品介绍. 为您扬帆,助您远航! 徽商银行特色新产品介绍.
“三生教育”专题 生命·生存·生活.
按開憂鬱症的結 ---穴位玄機妙用 溫嬪容 醫師.
Unsupervised feature learning: autoencoders
小班早期阅读讲座.
今日報告大綱(口頭) 一、前言─梁立國 二、姜夔生平─梁立國 三、姜夔的文學思想─梁立國 四、姜夔詞例賞析(上) ─張弘毅
參考資料:﹝升中全接觸﹞ 香港明愛青少年及社區服務
大连工业大学员工私家车保险 优惠方案 平安产险大连分公司 2011年1月 1.
公务卡使用说明.
我的故事 ————往事回首.
中国特色社会主义政党制度 主讲:西南大学 李强 2011年12月28日.
财务知识培训 杨 秀 玲 2014年10月.
女生成功靠什么? 09英本四班 傅柏双.
国际投资环境罗氏评级法 美国.
社会保障学 第5章 失业保险.
欢迎南京市政治学科的教研同仁 光临指导.
人力资源市场统计工作介绍 人力资源市场与人员调配处 郭俊霞 2014年12月.
主 题 班 会 团 结   协 作    力 量.
寻觅节日诗情.
理想.
第一章会计技能的内容 1.1会计技能的重要性.
傷 仲 永 王安石 S 孫子潔.
垃圾食品與肥胖的關係 敏盛綜合醫院 陳美月 營養師.
固定与搬运技术 义乌市中心医院 陈红卫.
爱的表达方式.
南投縣永昌國小 自衛消防編組訓練.
苏州市教育局组织讲座 后现代心理学 对教育工作的贡献
院長:鄭錦聰 教授 各系負責老師 光電系:姬梁文老師 電機系:張凱雄老師 資工系:謝仕杰老師 電子系:陳柏宏 老師
案例分析 胎记美容记 第6小组
PowerPoint Template 門禁監控系統- 應用影像辨識技術 1.
指導教授:林君憶老師 報告者:江秀英 日期: (三)
人生五色臉 年輕十歲必學的小動作,九個保持身體健康的的小訣竅 人們常在不經意間做些小動作,並認為這是身體的本能反應,
第六节 脑和脊髓的传导通路.
浙江省公务卡结算制度.
深層學習 暑期訓練 (2017).
MovieBot: Booking Tickets Easily
NLP Group, Dept. of CS&T, Tsinghua University
「簡易水土保持申報書」 內容及送審流程之探討
InterSpeech 2013 Investigation of Recurrent-Neural-Network Architectures and Learning Methods for Spoken Language Understanding University of Rouen(France)
sequence-to-sequence
黄土高原的水土流失 标题 水土流失的原因 水土流失的危害 治理措施 参考文献 小组成员.
Answering aggregation question over knowledge base
第6章 組合邏輯應用實驗 6-1 編碼∕解碼器實驗 6-2 多工∕解多工器實驗 6-3 七段顯示解碼器.
Representation Learning of Knowledge Graphs with Hierarchical Types
突旅 Sudden Travel 想不想來一場說走就走的旅途 – - 請開啟投影片播放,給你更優質的介紹 -
李宏毅專題 Track A, B, C 的時間、地點開學前通知
Introduction of this course
Japanese Architecture
2018年安徽工程大学大学生高分子材料创新创业大赛
如何制订幼儿园园本培训工作计划 大连亿达世纪城幼儿园 姜承华 2011年3月10日.
More About Auto-encoder
智寶電子 法人說明會 主講人:張維祖董事長.
拿来主义 NLP+Knowledge zdf.
人工智慧&Scratch 林俞均 侯藹玲 陳芸儀 鄭涵庭
105年教育部熱血老師翻轉學生「教育愛」座談會
HRNet 保持高分辨率 不同分辨率之间进行信息交换(exchange) Exchange Unit HRNet Exchange Block.
Presentation transcript:

NLP+Knowledge zdf

NLP

Attention is all you need K, V

Model Architecture Encoder and Decoder Stacks Attention: 其中d_k是特征长度,假设q,k为Q,K某行,每个位置为独立的随机数, 均值=0,方差=1,那么q*k的均值=0,方差为d_k Multi-Head Attention:

Model Architecture Positional Encoding:self-attention与位置无关,引入位置编码 其中,i对应特征的维数,pos对应第几个词。波长从2pi到10000 · 2pi

Transformer http://jalammar.github.io/illustrated-transformer/ http://nlp.seas.harvard.edu/2018/04/03/attention.html

拿来:captioning 把image captioning看作是一个翻译问 题:从像素块序列到英语的翻译 encoder输入视觉信息,得到视觉的k 和v,输入到语言的decoder: visual encoder + language decoder 目前已经有类似做法: Captioning Transformer with Stacked Attention Modules End-to-End Dense Video Captioning with Masked Transformer 同样的text-to-image合成也可以做同 样的“拿来” RCNN

批判 positional encoding 其实至关重要做法略显拍脑袋,没有很好的解释

BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding 贡献:提出预训练方式 1.完型填空Masked LM (MLM) 2.句子匹配Next Sentence Prediction(NSP)

BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding Masked LM (MLM): 把词序列输入到BERT之前,mask掉15%的词,即用[mask]替代。 1.把分类层加到encoder的顶部。 2.用词embedding矩阵和输出向量点乘得到词表大小的向量 3.用softmax计算每个词的概率。 注意:计算loss时只考虑mask掉的位置。 实际操作中,由于下游任务不会遇到[mask],因此训练过程中,被选中的词,80%被[mask]替代,10%随机替换,10%不变。 classifier

BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding Next Sentence Prediction(NSP):预测两句话是否连续的两句话。 1.输入序列贯穿整个transformer 模型。 2.其中[CLS]的输出被变换为2维向量(连续or不连续) 3.计算概率 注意:正负样本比1:1

拿来:图像中无标注数据的利用 MLM-> NSP->next frame prediction X 都没有太深刻的见解 image inpainting 正则化操作,图像随机mask像素or像素块,让mask前和mask后一致。 NSP->next frame prediction X 都没有太深刻的见解

批判 MLM比较手工 NSP输入阶段融合比较多的特征,与下游任务的输入可能会有较多偏差。

Knowledge

联系到关系检测VRD,给定两物体,如何计算两者是某关系的分数 知识库 知识库将人类知识组织成结构化的知识系统。人们花费大量精力构建了各种结构化的知识 库,如语言知识库WrodNet、世界知识库Freebase等。国内外互联网公司纷纷推出知识库 产品,如谷歌知识图谱、微软Bing Satori、百度知心以及搜狗知立方。 人们通常以网络形式组织知识库中的知识,网络中每个节点代表实体(人名、地名、机构 名、概念等),而每条边则代表实体间的关系。因此大部分知识往往以三元组(实体1,关 系,实体2)表示。 知识表示学习: 通过机器学习将研究对象的语义信息表示为稠密低维实值向量。le,lr分别是学习得到的实体和关 系的向量。 联系到关系检测VRD,给定两物体,如何计算两者是某关系的分数

知识表示学习主要方法:容易联想到scene graph 1.距离模型:结构表示(structured embedding,SE) 2.单层神经网络模型:SLM

知识表示学习主要方法 3.能量模型:语义匹配能量模型(semantic matching energe)

知识表示学习主要方法 4.双线性模型:隐变量模型(latent factor model,LFM)

知识表示学习主要方法 5.张量神经网络模型:neural tensor network, NTN

知识表示学习主要方法 6.翻译模型(更倾向于称作:平移模型) TransE: TransH: TransR: TransD: TranSparse: transA: transG:

知识表示学习主要方法 全息表示模型:holographic embeddings,Hole 可用fft优化速度: 复数表示模型:Complex Embeddings

知识表示学习主要方法 类比推断模型:Analogical Inference(故事会巅峰故事) Relations as Linear Maps 作者希望找到的这个矩阵满足如下性质: 1.正规矩阵: 对称阵(建模对称关系is identical), 反对称阵, 旋转矩阵(建模1-1关系), 循环矩阵(在傅立叶域的关系) 平行四边形法则

知识表示学习主要方法 Commutative Constraint for Linear Maps (8)(9)计算复杂度太大,简化之:一大堆推导之下得到 其中B是分块对角阵,块要么2x2要么1x1.最后证明 hole和ComplexE是analogy的特例,实 际上只看代码:analogy就是ComplexE和DISMULT的求和。 平行四边形法则

拿来 构造“视觉知识表达” 构造self-attention 邻接矩阵 scene graph -> visual knowledge graph 把知识表达所有重要模型,在SGG刷一遍,作为对领域“重启” 构造self-attention 邻接矩阵 self-attention的邻接矩阵实际上就是一种关系的分数(multi-head就是多种关系的分数)

总结 当然,能够只是送出去,也不算坏事情,一者见得丰富,二者见得大度。尼采就自诩过他 是太阳,光热无穷,只是给与,不想取得。然而尼采究竟不是太阳,他发了疯。中国也不 是,虽然有人说,掘起地下的煤来,就足够全世界几百年之用,但是,几百年之后呢? 总之,我们要拿来。我们要或使用,或存放,或毁灭。那么,主人是新主人,宅子也就会 成为新宅子。然而首先要这人沉着,勇猛,有辨别,不自私。没有拿来的,人不能自成为 新人,没有拿来的,文艺不能自成为新文艺。----鲁迅