您当前的位置:检测资讯 > 科研开发

人工智能医疗行业运用的可能问题分析

嘉峪检测网        2021-07-08 16:29

人工智能是人类通过模仿智力运动过程来实现人脑的认知、识别、记忆、计算、逻辑思维、推理判断等复杂思维功能。信息网络条件下,各种智能终端的普及和传感器的运用产生了大量的数据,为人工智能医学运用提供了源源不断的养分,不仅给医疗领域本身带来了一场新技术革命,更是具备了促进医疗行业模式改变的力量。

 

在医疗器械生产上,人工智能对医疗器械应用全过程中的效果的进行智能分析,让医疗器械的研发和使用上更加符合医疗的实际,更加契合个人的使用习惯。病人定制、医生定制的医疗器械产品有可能出现。一些远程化、标准化、智能化医疗器械的运用会解决外科医生不足的问题,医疗器械的研发、生产和运用更加精准化。

 

人工智能医疗运用会不会替代人类?

 

人工智能是人类发明的一项科学技术,是计算机技术的延伸,是计算机实现智能的原理,或制造类似于人脑智能的计算机。人工智能只是人类征服自然的工具,是人类认识和利用自然及其规律的手段,是构成社会生产力的重要部分。人是人工智能的创造者和使用者。人的能力是人进行人工智能研究的前提条件和基础。人工智能的能力与人的能力息息相关,人工智能的升级和迭代与人的能力发展进步相关连。人始终在人工智能的发明和使用过程中处于主导地位。因而,人工智能的医疗运用是置于人的能力和人的主导下进行的,不可能超越人类自我,跨越人类之上,只能部分代替人的能力,增强人的部分能力,尤其是在涉及人类生命健康的医疗行业中,一个小小错误的代价可能是生命或生活功能丧失。无论人工智能的“医疗知识”有多丰富,“技术能力”如何精湛,“诊治水平”怎样高超!它仍然是同核磁、X射线、超声、检验和病理一样,是健康管理过程中的辅助决策工具,最后做决断的是人,这是由技术的本质属性决定的,与技术的功能无关。

 

人工智能医疗运用会不会丧失自我?

 

人类通过技术的发明和使用获得了巨大收益的同时,却又让人类付出了代价,损害最明显的是人的价值和自由。工业革命把人类从体力劳动中解放出来后,缺乏运动、高脂饮食、污染排放等开始影响人类的健康。一旦人工智能把人类从脑力劳动中解决出来,体力、脑力劳动双解放,更容易让人类在人工智能面前丧失“自我”,导致人自身、人与人之间、人与社会之间关系的异化,形成一种“病态世界”,人工智能在解放人类的同时又在奴役人性。这种状况的出现不是人工智能的过错,是人类使用人工智能过程中的偏差。人工智能医疗运用更让人们陷入唯“人工智能”论,不信“真人”信“假人”,让机器代替人类作决定,成为机器的奴隶。因而,人类须展现智慧的一面,有意识地去克服人工智能不利的一面,向更智慧的层面迈进。无论人工智能医疗运用有多“医能”,它应该始终是人类改造自然的工具,是促进人类健康和尊严,谋求人类的长远利益而发展的,不能成为人类文明畸形发展的灾难,把人文精神贯穿人工智能医疗运用发展的始末。

 

人工智能医疗运用会不会存在问题?

 

人工智能医疗运用离不开数据、算法,以及结论的执行,但每个环节都可能存在问题。一是数据真伪问题。人工智能医疗运用的起点是数据,但数据的来源、记录、整合等方面都可能存在漏洞。如有研究机构指出电子病案系统中80%左右医疗信息是粘贴和复制的,存在着许多疾病信息编码、疾病描述的非标准化等错误。数据的整合也是其中的一个难点,如何将病历、影像、检验报告里的非结构化数据转化为可以识别的结构化数据。医疗机构之间的数据孤岛现象,“私心”问题、全数据库共享权限等均会制约人工智能的发展。二是算法有“偏见”。人工智能医疗运用算法的对象是不是具有代表性,算法开发者、设计者会不会有代码“歧视”和“偏见”。这些看似无关的问题,实际上影响最终的结果,受人的主观意识控制。如保险行业运用人工智能提高某些人群的保额或者拒保某一特定人群。三是过程缺乏科学评价。人工智能医疗运用中的数据、算法本身有没有科学性也是问题,谁来评价这些数据、算法本身是否科学?如果数据、算法本身都存在问题,其结论的科学性就无从谈起。退一步说,就算数据和算法都没有问题,结论有没有科学性,如何评价结论的科学性同样需要科学的评价工具。四是责任边际不易划分。人工智能医疗运用是辅助诊疗工具,最后决策者是人,人承担决策责任。但人工智能医疗运用的结果不同于影像学、检验学、病理学结果,一个是单一机器判读的结果,一个大量数据测量的结果,谁应该承担这一主观性的责任。数据收集者、算法设计者、结论采用者谁应该承担主要责任,尤其是当人工智能结果与人的主观判断结果不一致,且造成严重成果时,责任如何划分?这些责任边际划分的结论也会反向促进或抑制人工智能的发展,需要一个不断完善和健全的法律、伦理等制度保障。

 

人工智能医疗运用会不会产生危险?

 

技术是有两面性的,一方面是技术本身的缺陷造成的,另一方面是使用者的不安全使用。人工智能医疗运用同样存在危险。一是信息泄露。个人医疗信息的价值仅限于个人,但相关算法不仅能直接采集个人医疗信息,也会深度挖掘分析看似不相关的数据信息。人工智能在多场景、多平台、多时段的数据收集,以及专业化的数据处理,使得信息主体本身难以查觉和了解,无法控制其个人信息的传播和滥用,个人信息裸露在虚拟世界中。二是反向运用。人工智能医疗运用要有伦理和法律界限,即应以人类的根本利益和责任为原则,以实现人类根本利益为终极目标。但相关技术稍加转化便可以对人类形成灾难,如对疾病基因的筛选可以变成对致病基因的筛选,其作用就千差万别了。三是形成鸿沟。人工智能医疗运用发展需要相对发达的信息网络技术和广泛场景运用为基础,需要超量的资金和科学家团体的不懈努力,但在当前全球经济发展不平衡、技术发展不均衡的环境下,人工智能发展出现了国家化和民族主义倾向,更易形成技术垄断和壁垒,加深了国家、公司、个人之间的技术鸿沟,形成“悬崖”效应,将对人类社会的发展带来许多不确定性的影响。

 

分享到:

来源:Internet