离语

semaphore

首页 >> 离语 >> 离语最新章节(目录)
大家在看拒嫁豪门:少夫人99次出逃 六零真千金遭全家厌弃后被国家宠 清穿:我凭生娃养娃名留青史 军婚:彪悍媳妇她带数亿资产穿越 三体 天价小娇妻:总裁的33日索情 嫁给爹系大佬,恩,很好,还活着 杀手穿六零暴揍极品去下乡 斗罗之一剑隔世 重生:回到5年前中巨奖 
离语 semaphore - 离语全文阅读 - 离语txt下载 - 离语最新章节 - 好看的其他类型小说

第295章 吃饱了

上一章书 页下一章阅读记录

1.3.2 研究方法

本文以有关电力行业 LcA 的近十年的英文文献为研究对象,并根据每篇文章的元数据构建数据

库。进行文档分割,将文件分割为更小的部分或章节,分区后使其更容易分类和提取文本,将文档

元素列表存储并跟踪从文档中提取的各种元数据,将文本元素分割为适合模型注意力窗口的大小,

构建向量数据库,方便大模型调用。利用 RAG(检索增强生成)模型,帮助大语言模型知晓具有电

力 LcA 领域专业性和时效性的知识,包括最新的新闻、公式、数据等内容,增强大模型回答关于电

力行业 LcA 领域专业性问题与时效性问题的能力,主要用到的研究方法如下。

(1)文献资料法。通过阅读大量国内外研究检索增强生成的文章,确定将 RAG 技术作为提升

大语言模型回答电力行业 LcA 领域问题专业性与时效性问题的解决方法。文献调研显示,聚焦于此

领域的大模型是一个研究空白,将电力行业 LcA 的大模型应用于企业层面的分析,能够响应了重大

战略。该方法能够提升科研眼界、开阔研究思路、丰富研究角度。

(2)实验法。本文使用爬虫程序抓取各顶级期刊官网上近十年的文章,并通过元数据处理方

法,构建文章元数据的数据库。

(3)实证分析法。本文通过大量实际数据,来验证大模型调用电力行业 LcA 领域向量数据库

回答该领域专业性问题和时效性问题的有效性。

1.3.3 系统设计

系统设计三个模块,整体设计如图 1.4 所示,分别是数据处理模块、专业领域知识库构建模块

以及 chatbot 构建模块。数据处理模块主要包括对电力 LcA 这个特定领域的英文文献进行选择和初

步处理,而后将有关数据全部转化成结构化数据。知识库构建模块主要是将数据向量化并构建向量

知识库。chatbot 构建分为功能部分和前端部分,功能包括 openAI 基座的调用、知识库检索、在

线检索;前端部分为 web 可视化以及 UI 设计。

1.4 本章小结

第一章作为本论文的引言部分,主要围绕研究背景、研究目的与意义、研究内容与方法以及系

统设计进行了全面的阐述。首先,本章通过详细阐述当前大模型技术在内容解析领域的背景,指出

了电力行业生命周期评价的重要性,并强调了研究流程和研究方法。在这一基础上,本章进一步明

确了项目系统功能设计。综上所述,本章作为论文的引言部分,为整个研究提供了清晰的研究背

景、目的、意义、内容及方法概述,为后续章节的展开奠定了坚实的基础。

2.1 大语言模型

chatGpt 是由 openAI 发布的一种大语言模型,能够以问答的形式完成各类任务,包括接受文

字输入,理解自然语言,理解响应并模拟人类对话形式进行输出。再各个自然语言处理子任务具有

优异的表现。相比其他大语言模型拥有更丰富的知识,涵盖自然、社会科学、人文历史等多个领

域。chatGpt 在 Gpt3.5 的基础上引入了 RLhF(reinforcement learning from human feedback)

技术,通过将人类的日常对话的语言习惯嵌入模型,并引入价值偏好,使得模型的输出满足人类的

意图。微调过程分为预训练、监督微调、设计奖励模型和反馈优化。桑基韬等人根据 chatGpt 的对

话对象和定位将其应用分为四个层次:数据生成器、知识挖掘器、模型调度器和人机交互界面。在

多模态领域,Visual chatGpt、mm-ReAct 和 huggingGpt 让视觉模型与 chatGpt 协同工作来完成视

觉和语音任务。

除此以外,许多类 chatGpt 的大模型也同样在自然语言处理方面展示出来了较好的效果。

LLamA 是应该从 7billion 到 65billion 参数的语言模型,不需要求助于专有的数据集。清华大学

提出了一种基于自回归填充的通用语言模型 GLm 在整体基于 transformer 的基础上作出改动,在一

些任务的表现上优于 Gpt3-175b。

大语言模型,例如 Gpt 系列、LLama 系列、Gemini 系列等,在自然语言处理方面取得了显着的

成功,展示了超强的性能,但仍面临诸如幻觉、过时的知识、不可追溯的推理过程等挑战。2020

年,由 Lewis 等人引入的检索增强生成方法,通过整合来自外部数据库的知识,然后再继续回答问

题或生成文本。这个过程不仅为后续阶段提供信息,而且确保响应是基于检测到的证据的,从而显

着提高输出的准确性和相关性。在推理阶段从外部知识库动态检索信息使 RAG 能够解决诸如生成幻

觉等问题。RAG 与 LLm 的集成得到了迅速的应用,提高了自然语言处理任务的性能,并且使得模型

能够更好地利用外部知识和背景信息。

自 2020 年起,全球大语言模型在自然语言处理、计算机视觉、语音识别、推荐系统等领域表

现出卓越技术优势,市场规模持续增长,预计到 2028 年将达到 1095 亿美元。国外大模型产品研发

在 2021 年进入高速发展期,谷歌、openAI、英伟达、微软等公司都推出了自主研发的大模型,截

至 2023 年 7 月底,国外已发布了 138 个大模型。我国大模型发展迅速,与国际前沿保持同步,百

度、腾讯、清华大学、北京航空航天大学等单位都推出了自己的大模型,截至 2023 年七月底,我

国已发布 130 个大模型。

2.2 知识抽取

知识抽取主要分为命名实体识别和关系抽取两方面。命名实体识别(NER)任务,旨在识别与

特定语义实体类型相关联的文本跨度。该任务最早于 1991 年由 Rau 等人提出。随着信息理解、人

工智能等领域的顶级会议对 NER 任务的评测,其定义逐渐细化和完善,并逐渐成为自然语言处理

(NLp)领域的重要组成部分。然而,不同领域对实体类型的定义存在差异,因此 NER 模型的构建

取决于特定领域任务需求,通常涵盖人物信息、地点信息和组织机构信息等。对于英语、法语、西

班牙语等外语文本,通常采用单词作为基本单位,因此基于这些语言的 NER 模型主要关注单词本身

的语义特征和上下文信息。然而,中文语料文本通常由字符构成,需要考虑字符的语义信息和词汇。

特征,同时引入其他表征信息来提升模型性能,如中文分词(cwS)、语义部分标签(poS)等外部

信息,因此构建中文命名实体识别(cNER)模型更为复杂。目前,NER 任务的研究方法主要包括基

于词典和规则的方法、基于机器学习(mL)的方法以及基于深度学习(dL)的方法。

今天为什么讲座要那么长时间。

上一章目 录下一章存书签
站内强推赵氏嫡女 都市极乐后后宫 穿越豪门之娱乐后宫 烟雨楼 肥水不流外人田 老娘心理学博士,进宫嘎嘎乱杀 重生过去震八方 少龙风流 洛公子 末世重生,夫囤枪来妻囤粮 权力巅峰:从借调市纪委开始 调教太平洋 我的极品老婆们 新现代逍遥录 80年代厂区生活 瘦不了 老祖别苟了,宇宙要没了 西游之大娱乐家 鬼吹灯 拒嫁豪门:少夫人99次出逃 
经典收藏虚空塔 谍战之我是财神 被读心后,真假千金联手吃瓜 爆火姐弟综艺,全网认我当姐 末世轮回系统:我是最强战神! 穿书,捡到一只大反派 当个俗人 清穿之力气大多吃点怎么了 九叔:我是大帅,开局金佛镇五魔 我在海贼世界为所欲为 影视综合:从民国开始 盗墓:气运逆天,觉醒人皇血脉 四合院:重回50年,傻柱从军 原神:开局觉醒时间系神之眼 庄老邪修仙传 修仙从药童开始 海贼之绝巅霸气 一鼎一剑一傀儡 星穹铁道:救世凯文被迫加班 复制别人就变强 
最近更新太子白月光不香,软娇娇才是真爱 穿书大佬亲妹,被迫躺赢当团宠! 总裁的炮灰原配支楞起来了 前朝公子今朝婿 那个少年太好看,姐姐要了 唐诡:从元芳之子开始 超兽武装之开局穿越白虎族 素手提灯,渡世间万鬼 跬步仙踪 神明无情无爱,大佬今生撩她上瘾 Re:艾蜜莉雅很想让我当王妃! 快穿:恶劣的女配,男主他偏爱 最强火焰使者,魔尊吓得跪地求饶 落在荒年崽崽很闲 相思筑余年 全家穿书,崩剧情不崩人设 转生成赛马娘,创造华夏神话 一句一译的安徒生童话 墨守成婚 过期温柔 
离语 semaphore - 离语txt下载 - 离语最新章节 - 离语全文阅读 - 好看的其他类型小说