五问「ChatGPT 医学影象」:新一代的AI能否成为放射科医生的一把利器?


ChatGPT在医学影象领域,是昙花一现或者久长之功?


作者 | 乔燕薇
   


自ChatGPT引爆人工智能领域以来,迅速吸引了来自区别领域的科学家和从业者的眼光,期待着这一里程碑式的技术为自己的行业带来新的变革。

近日,上海科技大学生物医学工程学院开创院长、联影智能联席CEO沈定刚教授主持举行了一场线上MICS学术沙龙活动,乔治亚大学计算机科学系毕生教授刘天明,美国亚利桑那州梅奥诊所放射肿瘤学教授和医学物理部科研主任、AAPM Fellow刘伟,美国伦斯勒理工学院生物医学工程系P.K. Lashmet讲席副教授闫平昆,哈佛大学医学院和麻省总医院讲师李响四位学者,共同探究ChatGPT在医学影象领域中的诸多可能性。

在讨论中,刘天明指出,ChatGPT的效果冷艳,是由于采取了In-context Learning或叫做Prompt(提示词)等技术,同时利用具有大量参数的Transformer对转换为向量的文本进行处理。这些技术的发展都需要长时间的积累和研究。

但是,在医学等专业性较强的领域内,ChatGPT的表现还不够好,仍需对其进行从常识性知识到生物医学领域知识的迁移和进一步的学习训练,以提升其在专业领域中的表现。

刘伟表示,如果想将ChatGPT利用到医学影象当中,多模态学习必不可少。医学领域中目前存在很多的图象、音频、文本等区别种类的数据,一定要利用多模态学习将其进行结合,才能利用在临床工作中。

另外,还要斟酌到特定领域数据的限制,针对医学这类专业领域的数据,需要使用更专业的提示词来生成问题。

李响分享了团队的一个新进展,他们尝试利用包括了医学领域专业知识的知识图谱来帮助更好地使用ChatGPT。

知识图谱可以加在全部流程当中,不论是文本的输入、语言的生成或者ChatGPT的效果改良等。

但是,取得一个好的知识图谱很困难,李响团队正在尝试利用ChatGPT从大量的专业语料库中自动发掘知识图谱,为语言模型在临床工作中的部署提供重要的先验知识。

闫平昆则认为,从影象分析的角度来看,ChatGPT之所以如此成功,特别相较于现在的视觉模型而言,是由于它学习的对象——文字,具有人类表达方式的先天优势。

当前阶段应当斟酌的是,怎么将图象信息更好地输入进大模型当中。一种方法是通过图象分析模型提取图象中的信息,将其发送给ChatGPT。另外一种方法是多模态学习,特别是视觉-语言学习。将图象信息与语言结合在一起后,就能够直接对图象信息进行编码,与文字一起发送到大模型中。

以下是此次研讨会的主要内容,雷峰网《医健AI掘金志》做了不改变原意的编辑和整理(文章末尾可查看此次学术沙龙触及的文章列表):

沈定刚:首先来介绍一下我自己对ChatGPT的认识,OpenAI是一家小公司,只有87个年轻的员工,平均年龄为32岁,大部份员工都是90后。

在数据分析领域,年轻人是非常重要的气力,从ChatGPT团队获得的成绩也能够看出,我们要支持年轻人的发展,为他们提供成长的机会。

虽然人数不多,但ChatGPT团队的成员都是名校毕业、曾在知名公司工作的经验丰富的人材,如谷歌、Facebook、NVIDIA、Microsoft、DeepMind和Apple等企业。

ChatGPT的团队构成比较均衡,包括本科生、硕士研究生和博士,各个级别的人材都很重要,这样才能把技术做好。这个团队虽然年轻,但经验非常丰富,成员中也有包括顶尖的AI科学家。

这样的成员构成使得他们能够在AI领域获得很好的成绩,也证明了人数其实不是唯一的关键,团队的质量更重要。

很多人疑问,为何ChatGPT出现在美国而非其他国家?

在人工智能领域,中国发表了非常多的论文和专利,但其中的大多数都来自于高校,而美国的论文和专利大多数来自公司。

高校和公司都在做一样的事情,但是很多创新和资源都在公司。因此,高校需要与公司进行紧密的产学研结合,协同创新,才能体现出高校独有的特点和优点。

在科学研究和技术创新方面,美国起步很早。早在1958年,美国就开始做老化研究,通过测试了解人的身体、认知、情绪等方面的变化,1989年就开始使用磁共振技术进行研究。

在过去的几十年中,许多重要的研究项目都收集了大量数据,这些数据被保存下来并一直在被研究。这些项目的成功与否与其前瞻性、长时间性和理想主义密切相关。

一些初期收集的数据在当时没法得到很好的分析,但现在随着人工智能和深度学习技术的发展,这些数据成了非常有用的资源,对了解人类的初期发育、认知、神经系统疾病等方面非常重要。

如今,人工智能已进入AI 2.0时期,大领域模型在数据足够多且模型足够大的情况下可以获得奔腾性的性能提升。

在医学和影象领域中,我们需要一个视觉模型来帮助医生诊断病情。相对视觉模型来讲,语言模型更容易训练,由于前后有逻辑关系,而且可以从互联网和书本中获得数据进行学习。

而视觉模型需要学习的是每一个位置与其他位置之间的关系,非常困难。我们可以利用语言模型来帮助视觉模型的学习。

例如,视觉模型从图象中辨认出病灶位置,将其告知语言模型,语言模型根据之前的学习经验指点视觉模型去其他位置检查会不会存在病灶。

我们将语言模型与视觉模型结合起来,让两者相互配合,便可提高全部系统的能力。

早期,语言模型与视觉模型的水平可能存在差异,但随着合作的深入,两者可以联合工作,终究到达像AlphaGo下棋一样高效合作的目的。

下面回到我们今天的问题上。

沈定刚:ChatGPT的成功在技术上有哪几种要素?这些技术对医学影象的分析有甚么样的启发?

刘天明:我认为ChatGPT在技术上是需要长时间积累的,可能需要十年到十五年的时间。其中最重要的两个技术是Word Embedding和Transformer。

Word Embedding是十多年前出现的技术,它将单词转化为一个向量,放入一个Embedding空间中,这是一个革命性的技术。而Transformer是最近几年来非常热门的技术,它在语言和视觉领域都有很广泛的利用。

我认为最近出现的ChatGPT能够做得这么好,是由于它采取了In-context Learning或Prompt等技术,能够将文本转化为向量,再利用Transformer进行处理。这些技术的发展都需要长时间的积累和研究。

李响:ChatGPT的成功是由于它可以同时完成多个任务,这类多任务的方式在医学影象分析中也很重要。

ChatGPT的训练方式相对容易,由于语言是一种顺序的任务,而图象则需要斟酌多个方向上的相关性。

“ Masked autoencoders are scalable vision learners”等文章探索了图象多任务学习的方法,但目前还没有类似于ChatGPT的大范围,多任务图象模型出现。未来在医学影象和信号处理中,多任务和多模态集成的方法可能会得到更多的利用。

闫平昆:沈定刚老师、刘天明老师和李响老师从区别角度介绍了ChatGPT技术,我从图象的角度介绍一下。

ChatGPT使用的硬件和网络架构都很利害,它的模型量很大,从小到大分别有125兆和1750亿个参数,下一步要斟酌的问题就是如何把视觉模型做得更大。

另外,ChatGPT不但学习语言,还学习了编程语言和互联网上的代码,这说明对ChatGPT来讲,区别的数据代表着区别的价值。

第三,提示技术和高质量数据也对模型性能的提升有很大的作用。强化学习和Human in the loop等也是重要的因素。

刘伟:我是一个临床医学物理师,专注于放射医治。

我认为ChatGPT在一般的医学知识方面表现出色,但在更具体和相关性更强的领域,例如放射学,表现其实不出色。

这多是由于ChatGPT是通过强化学习进行训练的,而且专家的参与有限。如果我们想要提高ChatGPT在这些领域的表现,我们需要进行专家参与的强化学习,这可以通过专家的反馈实现。

另外,ChatGPT的数据来源是互联网,其中与医学领域相关的知知趣对有限,主要是为了科普性质的知识。

因此,如果我们可以搜集大范围的医学图象、文本数据,并通过专家的参与进行训练,我相信ChatGPT在医学领域将有更广泛的利用。

沈定刚:我们应当怎样在医学影象领域中利用和集成ChatGPT?

刘天明:我认为刚刚刘伟老师说的话题很好,从人类反馈到专家反馈的强化学习是在医疗影象中利用和集成最关键的因素。

ChatGPT利用公然的常识性知识生成语言和答案时,已做得非常好了,但我们在和医生、药剂师的一次讨论中发现,ChatGPT在他们的专业领域生成的语言和答案时常常其实不公道。

当下人们对ChatGPT的反馈可以分为两类:一类认为它在常识性的知识上做的非常好,另外一类则认为它在专业知识领域一本正经地说瞎话。

因此,在ChatGPT的训练中增强专家的反馈非常关键,一定要将专家的反馈纳入循环中,才能进一步提高ChatGPT的质量。

一年多前我们发表了一篇有关放射学的文本分析文章(ClinicalRadioBERT: Knowledge-Infused Few Shot Learning for Clinical Notes Named Entity Recognition),我们将积累的几万篇公然数据利用在文本分析中后,得到的结果比以往的常规分析要好很多。

因此,在ChatGPT的训练中,也需要逐渐从常识性知识升级到生物医学领域知识,再升级到放射学领域知识。

固然,放射学是一个非常大的领域,要将这一领域细分到甚么程度,才能到达我们想要的效果,仍需各位专家来界定。

闫平昆:刘天明老师提到了强化学习中的人类反馈,是ChatGPT中一个非常重要的技术,我们应当将专业医生的反馈更多地融入其中,让ChatGPT像超人一样从弱小到强大地成长起来。

ChatGPT在进行训练时,使用了大量由人工标注的材料和反馈样本,才能够到达如今的效果。

将来我们在训练自己的图象模型时,也要花费更多地耐心和精力去准备数据,毕竟机器学习的特点就是“Garbage In,Garbage Out”,如果数据质量不够好,模型的性能也上不去。

另外,刘天明老师刚刚提到Prompt Engineering提示工程,也是非常重要的一个技术。

十几年前做机器学习时,人们都在做特点提取,深度学习出现以后大家又改做Network Engineering网络工程,而现在进入人工智能2.0时期,每一个人都有自己定制的提示服务。

李响:这个发展其实很成心思,愈来愈多对深度学习或机器学习不够熟习的人,也能通过自然语言来实现这些技术。

In-Context Learning解决了pretrain大模型的问题,是一个非常有用的技术。它不但在技术上有改变,同时也在社会经济上对人类行动上有所改变,使得AI的受众变得更广泛,医生现在也能够自己做NLP相关的AI研究了。

在没有基于In-Context Learning的ChatGPT之前,医生们根本不可能完成这些事情,这是一个思想意识上的巨大转变。

在利用专业知识方面,Active Learning和Federal Active Learning在这个进程中都起到非常重要的作用,这是最核心的一个步骤,虽然只是一个小数据,但能够撬动全部大模型,使其向更好的方向发展。

这一进程仍有很多设计上的问题需要解决,或许暂时还回答不了,但我们目前已在进行这方面的研究。

刘伟:如果我们想将ChatGPT利用到医学影象当中,那末多模态学习就是必不可少的。医学领域中目前存在很多的图象、音频、文本等区别种类的数据,一定要利用多模态学习将其进行结合,才能利用在临床工作中。

另外,还要斟酌到特定领域数据的限制,针对医学这类专业领域的数据,需要使用更专业的提示词来生成问题。

第三,ChatGPT目前使用的是一个很简单的训练嘉奖模型,回答的结果仅仅由人来进行简单的评估,我认为将来应当进一步提升这一环节的复杂度,利用多模态学习等技术,进行多维度评估。

沈定刚:简单来讲,要将ChatGPT技术利用在医学影象或放射学等领域中,需要将相关领域的知识和信息融入到ChatGPT的模型当中,以提高其在该专业领域中的表现。具体而言,可以通过以下方式来实现:

提供大量领域相关的数据来训练模型,包括诊断结果、医学影象、学术论文等;

用领域专家的知识,例如医生、科学家等,对模型进行指点和改进;

将领域特定的语言和术语嵌入到模型中,从而使其能够更好地理解和处理该领域的内容;

将模型利用于特定领域中的具体问题,例如医学影象诊断,并将其与人类专家的表现进行比较和评估。

总之,在特定领域中利用ChatGPT技术,需要一定的领域知识和专业指点,并将其与具体问题相结合,以发挥其最大的作用。

沈定刚:如何利用成像AI和放射学的知识来提高ChatGPT?如何进一步开发面向放射学的大语言模型?

刘天明:我先说几个例子,它们是我们正在进行的项目的实例,我们有第一手的经验和体会,也获得了一些结果。就我目前的视察而言,ChatGPT在临床放射领域的利用会非常广泛。

第一个例子是,ChatGPT的推理能力非常广泛,只需要将临床放射领域的数据提供给它,就能够进行很好的推理。

在我们目前在做的一个项目中,将放射科等各个科室中的文本数据转化为ChatGPT可接受的格式,利用ChatGPT推理对应的疾病产生的缘由和未来的发展趋势。

第二个例子是通过ChatGPT对癌症病人的管理,特别是放疗的临床节点进行预测,这个项目目前已启动了。

第三个例子是在临床诊断中,通过提示工程将文本和数据嵌入特点空间,利用特点空间对病人进行聚类、分层或诊断。

这些例子很快就可以得到结果,可能会比之前的方法好很多。我认为,这只是ChatGPT在临床中的一小部份利用,在未来,临床上所有我们能想象到的技术、工具,基本都能够通过ChatGPT来实现。

另外,多模态问题也非常重要,我们正在通过量模态的In-Context Learning将图象特点、文本特点和医生的眼动数据进行相互联系,实现一键生成诊断报告。

沈定刚:谢谢天明,他刚刚提到的眼动技术很重要,特别是对语言模型的训练,由于眼动数据更具规律性。

相比之下,从各个方向都有联系的图象数据中学习规律要困难很多。

在医生进行诊断进程中,记录医生的眼动便可自动记录医生的关注点和注意力,从而帮助实现后续的自学习技术。这样的技术多是一个有效的摹拟医治方法。

在数字空间中,可以摹拟区别医治方法,并比较区别的结果。有了这样的技术,我们就能够在虚拟世界中进行诊疗。

闫平昆:从影象分析的角度来看,ChatGPT之所以如此成功,特别相较于现在的视觉模型而言,是由于它学习的对象——文字,具有人类表达方式的先天优势。

人类利用文字书写大量的知识,这些文字都有特定的规则,并且要以特定的规则进行表达,因此方便了ChatGPT对文字知识的学习。

当前阶段我们应当斟酌的是,怎么将图象信息更好地输入进大模型当中。

一种方法是通过图象分析模型提取图象中的信息,将其发送给ChatGPT。

另外一种方法是我们应当聚焦的一个方向:多模态学习,特别是视觉语言学习。将图象信息与语言结合在一起后,就能够直接对图象信息进行编码,与文字一起发送到大型语言模型中。

因此,目前我们应当以大型语言模型为主,它学习了大量的知识并具有逻辑推理能力。以此为中心,我们还要明确如何更好地将图象信息传递到其中。

李响:刘天明老师和闫平昆老师都讲了使用ChatGPT的核心要点,我想强调一个重要但不被关注的方面,就是医学信息学,在将语言模型用于临床工作流中时,需要快速、有效、准确地获得数据。

过去几年中,我们花了很多时间研究如何获得任意想要的医院系统文本或数据,并将现实模型利用于这些数据,从而将大语言模型或多模态模型融会到全部临床工作流当中,包括放射医学的临床指标。医学信息学在这个进程中扮演了很重要的角色。

刘伟:刘天明老师和沈定刚老师在多模态学习方面已很有成绩了,比如使用ChatGPT在临床医学和医疗影象领域进行了ChatCAD和ChatAug等项目。我们应当随着他们的思路,想办法将这些技术利用到培训和研究中。

我们虽然有非常多的医疗影象数据,但是由于各种缘由,数据的共享一直是一个大困难,我们需要生成一个合法合规的大型数据库,这对训练下一代大数据模型非常重要。

另外,许多医生都在尝试使用ChatGPT做科研,但由于缺少专业知识,只能利用ChatGPT做一些简单的利用研究,如果想要进一步地推动研究,还需要多领域专家的努力和合作。

总而言之,想要更好地将ChatGPT利用于临床工作当中,不单单需要融入多模态学习等技术,也需要多领域专家的共同努力。

沈定刚:斟酌到ChatGPT合成文档的局限性和潜力,怎么将ChatGPT整合到放射学流程中,帮助开发有用的放射科医生工具?

刘伟:我是放疗领域的从业人员,当下任何一个专科的数据信息都不单单有文本一种,而是涵盖各种区别类型的信息,比如病例、影象、随访结果等等,我们一定要将这些信息结合起来,才能够做更成心义的临床研究。

据我所知,目前已有公司开始使用大数据模型来预估病人的医治结果,但现阶段的模型一般只斟酌文本信息。

我认为一定要将多模态学习技术利用在这方面的工作中,引领未来的发展方向。

以放疗领域为例,目前存在多种放疗方式,包括光子、质子、Block Therapy和电子等,在为病人进行初步会诊时,遇到复杂的病情,常常需要集合多领域专家的意见,选择最合适病人的医治方式。

但组织专家会诊十分费时费力,且以往医生在制作病例时格式通常不够标准,更是加重了从这些非结构化临床数据中提取信息的难度。

现在有了ChatGPT这样的工具,我们才得以更高效地进行研究。

同时,在美国医疗保险公司为了节省本钱,总会选择比较低价的医治方式,从而加重了医生与保险公司沟通的时间本钱,这也是我们需要斟酌的一个问题。

刘天明:放射科医生在临床诊断中扮演着关键角色,需要与其他科室医生进行协作,需要浏览大量文献和病例数据。

使用ChatGPT等自然语言处理工具,可以帮助医生更快地浏览和理解大量信息,和快速撰写诊断报告和保险文件。这将大大提高医生的工作效力,改良全部医疗工作流程。

闫平昆:我认为在将ChatGPT利用于放射学流程时,有两个需要斟酌的方面。

首先是规范提示词,由于提示词在全部进程中非常重要。我们需要正确的提示词来进行Prompt Engineering,这要求我们对这个问题有深入的理解和认识。

如何给ChatGPT适合的提示词,从而取得更好的结果,也是需要我们解决的问题。

另外一个方面是区别的提示词对ChatGPT的结果有很大的影响。

OpenAI的团队做过这个实验,发现区别的提示词对模型的性能有很大的区别。因此,我们需要规范提示词,并使用集成学习等技术改良这一情况。

另外,通过ChatGPT模型,我们可以与医生进行反馈,生成报告,帮助医生发现可能被疏忽的问题,比如Incidental Findings(偶然发现)。

ChatGPT模型可以指出图象上可能存在的问题,让医生进行进一步检查。这类交互是非常重要的。

李响:为了更好地为医生提供服务,我们最近正在尝试利用知识图谱来帮助我们更好地使用自然语言处理工具。

知识图谱可以加在全部流程当中,不论是数据的输入、语言的生成或者ChatGPT的效果改良等等。这将为我们在临床中使用ChatGPT提供极大的帮助。

但是,取得一个好的知识图谱很困难,我们正在尝试利用ChatGPT从大量的语料库中自动发掘知识图谱,这项工作将为语言模型在临床工作中的部署提供很多先进的经验。

沈定刚:将ChatGPT及其核心技术用于医学影象领域会有哪几种潜伏的挑战(比如怎样创建跨机构的文本数据库,怎样保护患者隐私,需要哪些行业行动规范)?

我们已讨论过如何保护数据和隐私,但现在我们需要斟酌怎么将ChatGPT技术利用于医疗领域,特别是医学影象和放射医治?

这触及到IRB(机构审查委员会)的审批标准和个人信息的保护,也是一个比较关键的问题。

刘天明:目前在医疗领域中,数据隐私的保护非常重要,目前还没有适合的方法将医疗数据提供给ChatGPT。

我们正在准备一篇论文,探讨在保护隐私的条件下,怎么让ChatGPT更好地利用于医疗领域。

我们发现使用本地大范围模型可以解决部份问题,对没法解决的问题,我们可以利用ChatGPT去除隐私信息并提高数据辨认率。

这将对医疗领域产生重大影响,未来医疗文本可以通过ChatGPT进行推理。我们会很快发布一篇论文来详细介绍我们的思路。

闫平昆:在医疗数据的准备上,我们需要更多的图象和文本数据,例如临床记录、放射学报告等等。现有的公然数据集(例如MIMICS)相对较少。

另外,现在有很多编码器和Embedding等技术,我们会不会还需要共享原始数据?或是仅共享编码过的数据?

李响:刚才有老师提到了关于共享计算的问题,实际上联邦学习在影象上的利用已比较成熟,但在语言方面还需要一个大范围的语言模型,这也是一个挑战。

另外一方面,如果要在本地部署一个大范围语言模型,将会对算力提出很大的要求,这几近是大范围语言模型在医疗领域中最大的挑战了。

在我看来,其实不是所有的医院都有条件做这项工作,其中还存在着数据的不平衡性等问题,这是很值得我们关注的一点,并且现在还没有很好的解决方案,即便是我们使用的联邦学习等方法,也存在类似的弊端,需要有本地的处理方案。

刘伟:闫平昆老师刚刚提到的新思路是,利用联邦学习在本地模型中对数据做初步的处理,再进行分享,从而在保护保护病人隐私的条件下得到更好的结果。

但正如李响老师所说,在医疗领域数据调和和隐私保护是一个很大的挑战。我们曾斟酌使用区块链技术来分享数据,这或许是一个好的思路。

沈定刚:我们之前在放射学、肿瘤学、基因学等领域做了很多工作,收集了影象和基因信息。现在有了ChatGPT这样的技术,它可以帮助我们理解影象和基因之间的关系。我们可使用ChatGPT中的自学习功能来发现新的关系和规律,并将其利用于肿瘤学、基因学和放射学等领域。

怎么将ChatGPT与在放射学和其他许多生物医学领域中的利用串连起来?

刘天明:与我们合作的西北工业大学张拓老师带领着一个七八人的团队,已开始尝试使用ChatGPT,将人脑的结构和功能连接到一个高层的语意空间。

使用类似的方法,可以处理很多领域中的信息,比如基因组学和生物信息学,我认为ChatGPT在这两个领域中的利用还没有开始。我们可使用知识图谱的方法,将图象、文本、基因组等所有相关的信息全部映照到一个图空间里,然后使用ChatGPT等技术,对这个图网络空间进行推理和分析。

这是将改变全部生物信息学、临床信息学、医疗影象的NLP方法,是未来大势所趋。

沈定刚:这类方法可以改变所有表达的方式,让所有的信息处于同一个空间中,可以相互查到信息,从而实现多模态表达。

我们已花费多年时间研究了多模态信息,使用了CCA来将区别空间的信息转化为同一个空间,使用深度学习将远距离的信息向量转换到同一空间,这样做可让信息之间最大程度地调和一致。

我们还需要将区别的信息编码到同一空间中,并且在解码时可以返回原始模态的信息。这样做可让很多事情变得更容易。

这个领域很有趣,我读了很多论文,了解新的技术,就像2012年时,我读了很多Deep Learning的论文,然后安排我的学生们去做第一批Deep Learning的研究。

我们一定要紧跟技术发展的步伐,读所有的文章,了解所有的研究动向和技术细节,这样才能有效地指点我们的学生和年轻教师,让他们在短时间内获得好成果。我认为我们应当冲在最前面,才能把这个事情做好。

闫平昆:我们现在处于一个非常重要的时刻,需要在思想上进行转变。过去我们重视特点工程,后来又转向网络工程,而现在,我们需要将自己的研究与大型语言模型相结合。

另外,我们也需要不断提高机器交互的层次,从像素级别到特点级别,再到知识层次的交互。

ChatGPT的出现也重新定义了机器学习的可解释性。就像今天各位老师在这里分享的知识,我们不需要知道大家大脑中的神经元是如何工作、如何相互联系的,只要学到你们分享的逻辑与知识就足够了。

我们需要了解网络中神经元的工作方式,而没必要了解其具体实现。这样我们就能够重新定义可解释性。这些都是非常重要的研究方向,正如沈定刚教授所说,需要我们投入大量的精力去学习,掌握最新的技术进展

李响:我认为我们需要重新定义多模态融会的思想。过去大家谈到多模态融会,大多是指在一个特定的任务中融会区别种类的数据,并沿着一个路径走下去。

我认为多模态融会应当更多源自于生成,而不是单纯的融会模型或将区别的信息融会在一起。我们要让区别模态之间相互生成彼此,在各自的学习进程中对抗彼此。

如今在语言模型和图象生成模型上已有了成功的例子,我们可以尝试在多模态生成模型上获得进步,实现真实的多模态融会。

刘伟:我也认为学习更多的论文,了解技术细节非常重要,这样才能够更有效地与学生共同工作。作为临床医生,我可能相对守旧,但我认为我们应当做出改变,去拥抱最新的技术并将其利用于临床工作中。

比如,我们可以像沈定刚老师一样去尝试ChatCAD,将多模态数据结合起来,将其利用到区别的领域中。

我认为ChatAug这项工作很有前程,如果能够将其与多模态数据联系起来,不单单是文本和图象,还可以包括其他各种数据进行数据增强,那末模型效果也会得到提升。

此次学术沙龙中触及的文章,和以后参与的几位专家发表的ChatGPT在医学中的发展与利用的文章,可以参考以以下表:

ChatGraph: Interpretable Text Classification by Converting ChatGPT Knowledge to Graphs
Prompt Engineering for Healthcare: Methodologies and Applications
Differentiate ChatGPT-generated and Human-written Medical Texts
ChatABL: Abductive Learning via Natural Language Interaction with ChatGPT
Exploring the Trade-Offs: Unified Large Language Models vs Local Fine-Tuned Models for Highly-Specific Radiology NLI Task
ImpressionGPT: An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT
Evaluating Large Language Models on a Highly-specialized Topic, Radiation Oncology Physics
DeID-GPT: Zero-shot Medical Text De-Identification by GPT⑷
Chataug: Leveraging chatgpt for text data augmentation
Chatcad: Interactive computer-aided diagnosis on medical image using large language models
Transformers in medical image analysis: A review
DoctorGLM: Fine-tuning your Chinese Doctor is not a Herculean Task
//

近期热门文章

硅谷NEC Lab往事:将中国企业拽进AI时期的人


元气森林,过慧易夭


Temu动物凶悍

ChatGPT相关资讯

ChatGPT热门资讯

X

截屏,微信识别二维码

微信号:muhuanidc

(点击微信号复制,添加好友)

打开微信

微信号已复制,请打开微信添加咨询详情!