白脸风有什么症状 https://m.yiyuan.99.com.cn/bjzkbdfyy/a/295349/

设计步骤:

1可以利用chatgpt将三皇五帝的史书电子版(古书一般是古代史官写的)的进行程序切割;

2然后切割后的文件,提交给chatgpt进行向量化处理,然后存储到本地数据库或磁盘;

3然后输入自己想问的问题,经过chatgpt对问题向量化,从本地数据库或磁盘搜索之前存储的向量库(含有史学家写的书籍的二进制信息);

4然后就会得到向量化的结果,对应到中文,而且是总结好的类人的回答,因为AI的神经网络在起作用,并非搜索引擎那种关键词搜索。

备注:如果直接使用美国的chatgpt,经常出错很多,而且网络慢,并且收费很厉害。但是设计过以后,向量化那一步还是被chatgpt公司收费了,搜索时候,关键词向量化也被收费了,只能是降低费用,个性化改进,国内的模型可用后,替换为国内免费模型。该文章的方法可以降低使用网页版的高收费情况,并且可以自定义知识库和材料,避免使用网上杂乱的数据作为答案,并且可以得到一个“个人搜索引擎”和个人助手。古代或当代,很多书籍和视频,网上搜不到信息,或信息不全,或信息太多不好定位和总结,自己可以把自己的书籍视频进行文字化,向量化,智能化处理,便于自己检索。

示例:1chatgpt也可以理解文言文。各种古书传递进去,都会被chatgpt学习领会,如同武侠小说中的传授武功。

chatgpt可以理解古汉语吗

/4/:32:30

是的,我可以理解古汉语。作为一个基于人工神经网络的自然语言处理模型,我被训练了大量的语言数据,其中包括古代文献和现代汉语。虽然古汉语与现代汉语在词汇、语法等方面存在一定差异,但是我经过训练可以较好地理解古汉语的含义,并能够根据上下文推测出词语的含义。当然,在某些情况下,可能需要更多的上下文信息或者专家的辅助才能准确理解古汉语的意义。

母曰附宝,见大电绕北斗枢星,光照郊野,感而孕。二十五月而生帝于寿丘。弱而能言,龙颜,有圣德,劾百神朝而使之。应龙攻蚩尤,战虎、豹、熊、罴四兽之力。以女魃止淫雨。天下既定,圣德光被,群瑞毕臻。有屈轶之草生于庭,佞人入朝,则草指之,是以佞人不敢进。

/4/:18:42

这段文字描述了中国古代神话传说中的一个人物,即黄帝(传说中的三皇之一),其出生和成长经历被描述得非常神秘和具有象征意义。据传,他的母亲在见到一次特殊的天象后怀孕,并于二十五个月后生下了黄帝。黄帝本身具有超凡的能力和圣德,能够劾责百神、应对各种恶势力,最终统一天下。此外,传说中还有一种名为“屈轶之草”的植物,在佞人面前会自动指向其,以示警示。

需要说明的是,这段文字来自于《史记》,是一部中国古代重要的史书,而其中所述的内容多为民间传说和神话故事,并非真实的历史事件。虽然其中涉及的人物和事件在中国文化中具有极高的地位和影响力,但需要以科学和客观的态度对待,不宜过分迷信和神话化。

2比如要了解清华简,竹书纪年,内经,伤寒论,大唐西域记,佛国记,山海经,直接整本书分词,切割,向量化,本地存储,搜索向量,即可得到完整的总结的较好的类人答案。

3比如研究本草纲目,看看哪个药材有治疗疟疾的功效,直接搜索即可得到。

本草纲目关于疟疾的记载有吗

/4/:26:52

《本草纲目》是明代著名药学家李时中所撰的一部药物学著作,共收集了18,多种动植物药物,并对其进行了系统的归类和描述。其中也包括对疟疾的相关记载。

据《本草纲目》记载,疟疾是由瘴气引起的一种传染性疾病。该书还详细介绍了治疟疾的草药方剂和药理作用。例如,《本草纲目》提到了以青蒿为主要原料的清热解毒、祛瘴散邪的草药方剂,这在今天仍被广泛应用于治疗疟疾。

此外,该书还介绍了许多其他可用于治疗疟疾的中草药,如桑白皮、黄苓、金银花等。这些草药有的可以清热解毒、抗炎消肿,有的可以祛风除湿、舒筋活血,都有一定的治疗效果。但需要注意的是,疟疾是一种严重的传染病,在治疗时必须遵循医学原则,采用科学的方法进行治疗。

实现方法:

--------------------------------------------

0准备书籍:

找到自己觉得有价值的书籍,电子版,txt格式,放置到目录里。

--------------------------------------------

1分词:

importos

fromlangchain.embeddings.openaiimportOpenAIEmbeddings

fromlangchain.vectorstoresimportChroma

fromlangchain.text_splitterimportTokenTextSplitter

fromlangchain.llmsimportOpenAI

fromlangchain.chainsimportChatVectorDBChain

fromlangchain.document_loadersimportDirectoryLoader

importjiebaasjb

files=[世界杯.txt,埃隆·马斯克收购推特案.txt,安倍晋三遇刺案.txt]

forfileinfiles:

#读取data文件夹中的中文文档

my_file=f"./data/{file}"

withopen(my_file,"r",encoding=utf-8)asf:

data=f.read()

#对中文文档进行分词处理

cut_data="".join([wforwinlist(jb.cut(data))])

#分词处理后的文档保存到data文件夹中的cut子文件夹中

cut_file=f"./data/cut/cut_{file}"

withopen(cut_file,w,encoding=utf-8)asf:

f.write(cut_data)

f.close()

-----------------------------------------------------------------

2向量化:

importos

fromlangchain.embeddings.openaiimportOpenAIEmbeddings

fromlangchain.vectorstoresimportChroma

fromlangchain.text_splitterimportTokenTextSplitter

fromlangchain.llmsimportOpenAI

fromlangchain.chainsimportChatVectorDBChain

fromlangchain.document_loadersimportDirectoryLoader

importjiebaasjb

defget_answer(question):

chat_history=[]

result=chain({"question":question,"chat_history":chat_history});

returnresult["answer"]

#加载文档

loader=DirectoryLoader(./data/cut,glob=**/*.txt)

docs=loader.load()

#文档切块

text_splitter=TokenTextSplitter(chunk_size=1,chunk_overlap=0)

doc_texts=text_splitter.split_documents(docs)

#调用openaiEmbeddings

os.environ["OPENAI_API_KEY"]=""

embeddings=OpenAIEmbeddings(openai_api_key=os.environ["OPENAI_API_KEY"])

#向量化

vectordb=Chroma.from_documents(doc_texts,embeddings,persist_directory="./data/cut")

vectordb.persist()

#创建聊天机器人对象chain

chain=ChatVectorDBChain.from_llm(OpenAI(temperature=0,model_name="gpt-3.5-turbo"),vectordb,return_source_documents=True)

print(get_answer("世界杯在哪里举行的"))

print(get_answer("世界杯是何时发明的活动"))

--------------------------------------------

3查询

importos

fromlangchain.embeddings.openaiimportOpenAIEmbeddings

fromlangchain.vectorstoresimportChroma

fromlangchain.text_splitterimportTokenTextSplitter

fromlangchain.llmsimportOpenAI

fromlangchain.chainsimportChatVectorDBChain

fromlangchain.document_loadersimportDirectoryLoader

importjiebaasjb

defget_answer(question):

chat_history=[]

result=chain({"question":question,"chat_history":chat_history});

returnresult["answer"]

#调用openaiEmbeddings

os.environ["OPENAI_API_KEY"]=""

embeddings=OpenAIEmbeddings(openai_api_key=os.environ["OPENAI_API_KEY"])

vectordb=Chroma(persist_directory="./data/cut",embedding_function=embeddings)

#创建聊天机器人对象chain

chain=ChatVectorDBChain.from_llm(OpenAI(temperature=0,model_name="gpt-3.5-turbo"),vectordb,return_source_documents=True)

print(get_answer("世界杯在哪里举行的"))

print(get_answer("世界杯是何时发明的活动"))



转载请注明地址:http://www.sangbaipi.com/sbpjg/11636.html