本地部署的医疗大模型探索
在日常生活中,许多人对大模型存在一些误解。
有人认为大模型需要高端硬件配置,非得依赖云端的GPU阵列才能运行。
有人觉得大模型就是简单的对话机器人,只能一问一答,难以与其他软件融合。
还有人认为大模型容易产生不切实际的“幻觉”,写写文章、逗乐一下尚可,但若要应用于严肃的行业则远远不够成熟。
自2023年ChatGPT诞生至今,仅仅一年多的时间里,各种创新应用如雨后春笋般涌现。这些误解,或许是因为人们对这一新兴技术的了解还不够深入。
今天,我将通过一个实例,展示大模型在医疗行业中的独特应用,希望能引发大家的深入思考和讨论。
事实上,大模型不仅可以轻松安装在个人电脑上,而且运行效率也相当可观。这里特别推荐Ollama,一个开源的深度学习框架。它致力于简化大型语言模型在本地电脑的部署流程,提供简洁易用的API,降低技术门槛,同时保持高性能和轻量化的资源占用。更重要的是,它支持多平台运行,拥有良好的可扩展性,并拥有一个活跃的社区,持续为用户提供支持与更新。
值得一提的是,Ollama提供了70多个大模型供用户免费使用!今天,我们就来体验一下阿里最新的千问大模型在医疗领域的应用潜力。
安装并运行Ollama框架。
ollama run qwen2
编写Python代码,调用Ollama的大模型(Qwen2 千问2)。
import ollama``def call_ollama(model, message):` `try:` `response = ollama.chat(model=model, messages=[message], stream=True)` `return [chunk.get('message', {}).get('content', '') for chunk in response if 'content' in chunk.get('message', {})]` `except Exception as e:` `st.error(f"Error calling Ollama API: {e}")` `return []
利用Streamlit搭建简易网页前端,实现与大模型的实时互动。
# 此段代码用于病情与病例整理的界面交互,并通过调用外部模型进行数据处理``st.title = "病例整理"``user_input = st.text_area('', '', height=400) # 提供一个文本区域供用户输入`` ``# 如果用户点击“提交”按钮``if st.button('整理病例'):` `# 构造用户输入的消息列表` `user_input += '请把以下资料和数据,整理为数据表格。对检验指标,请加以解释说明。 ' # 向用户显示提示信息` `messages = [{'role': 'user', 'content': user_input}]` `# 调用外部模型处理用户输入` `response_chunks = call_ollama(model_choice, messages[0])` `# 将模型返回的结果合并为一个字符串` `final_response = ''.join(response_chunks)` `# 输出final_response到页面` `st.write(final_response)`` `` ``if st.button('治疗方案'):` `user_input += '请寻找治疗方案和临床治疗路径,有相关文档请列出,整理后以表格形式用中文输出。 ' # 向用户显示提示信息` `messages = [{'role': 'user', 'content': user_input}]` `# 调用外部模型处理用户输入` `response_chunks = call_ollama(model_choice, messages[0])` `# 将模型返回的结果合并为一个字符串` `final_response = ''.join(response_chunks)` `# 输出final_response到页面` `st.write(final_response)
运行streamlit,网页应用开始运行
streamlit run Ollama_LLama.py
这个简单应用非常适合医院内疑难杂症的多学科会诊场景。医生们往往需要整理大量的检查报告、病人主诉、病史及过往治疗方案等资料。这是一项繁琐却至关重要的工作。在整理好这些材料后,医生们会进行多学科会诊,并希望了解相关病例的文献和临床路径。虽然大模型目前尚未获得行医资格,但它却能在病例资料整理、相关文献查找等方面为医生提供有力支持。
下面就是调用大模型后得出的成果,令人眼前一亮!
本次演示是在我的MacBook Pro上运行的,通过编程语言将大模型集成到网页应用中,并成功输出了所需结果。我并没有对大模型进行微调或者增加本地数据库,而是利用大模型本身的能力整理病例。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
原文地址:https://blog.csdn.net/2401_85375298/article/details/143656758
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!