扫清误区 科学抗癌******
近日,美国一名自然疗法医生因在新冠病毒大流行期间,宣传虚假的新冠病毒免疫疗法和出售虚假疫苗接种卡而被法官判处近3年监禁。无独有偶,去年9月,号称“中国自然疗法第一人”的于伟,因涉嫌以自然疗法的名义对一名癌症患者实施诈骗,而被上海闵行检察院提起诉讼并最终获刑。得了癌症的人容易病急乱投医,这也让一些别有用心之人有了可乘之机,因此我们要擦亮双眼,正确认识癌症治疗。
癌症患者易病急乱投医陷入认识误区
中国医学科学院肿瘤医院乳腺外科副主任医师杨雪告诉科技日报记者,自然疗法通常被认为是一种应用与人类生活有直接关系的物质或方法,如食物、空气、水、阳光、睡眠以及有益于健康的精神因素,如希望、信仰等,来保持和恢复健康的一种行为,是一种非医疗手段。
杨雪指出,由于传统癌症治疗方法中的放化疗存在一定副作用,让很多癌症患者对正规治疗心存恐惧和抗拒。“而自然疗法听上去‘很纯天然’,加之一些机构或个人为了利益过度夸大其作用,甚至不惜欺骗患者,使一些患者将自然疗法视为救命稻草,导致了悲剧的发生。”杨雪表示。
除此之外,在癌症治疗中,一些人还企图通过限制饮食达到“饿死”肿瘤细胞的目的,并号称这是“饥饿疗法”。其实,这是一种完全错误的行为。
肿瘤是肿瘤细胞异常增殖导致的疾病,这种增殖带有无序性和掠夺性。北京大学肿瘤医院核医学科研究员朱华介绍,在治疗黑色素瘤时,有一个经典的疗法叫做精氨酸剥夺治疗。黑色素瘤在生长的过程中需要摄取一种非天然氨基酸——精氨酸。人体不能合成这种氨基酸,需要外界提供,因而对患有黑色素瘤的患者,通过服用阻止精氨酸在人体代谢的药物,可以实现对黑色素瘤生长的控制。“这个可能是肿瘤‘饥饿疗法’最有效的案例。”朱华说,但此“饥饿疗法”非彼“饥饿疗法”,实际上,大部分肿瘤是“饿”不死的。“饿死”肿瘤和饿死人这两个概念是不一样的。
“肿瘤长在身体里面,只要人体有血液供应,肿瘤就能得到生长所需要的营养物质。因而,用限制饮食来‘饿死’肿瘤的做法不但不能‘饿死’肿瘤,反而还有可能降低机体抵抗力,得不偿失。”朱华说。
要选择正规医院进行咨询和治疗
杨雪告诫,癌症诊断和治疗都有行业金标准,不要轻信非正规医疗机构的所谓诊断和治疗;对于那些号称能治愈所有癌症、取材自然、没有毒副作用,或者打着民间偏方、祖传秘方,以及“保密专利药物”等旗号的,都需要小心背后的骗局。
杨雪说,鉴别一种疗法有没有效果,是不是在临床得到应用,有条件的患者可以在中国知网、万方数据库或者其他专业网站查阅发表在医学期刊的文献。如果生病,一定要选择正规医院进行咨询和治疗,不要随便相信私人印刷的宣传单、街边小报和不靠谱的网站等,更不要在所谓大仙、大师的忽悠下方寸大乱,误入圈套。如果需要咨询,一定要选择专业医疗机构。
杨雪认为,民间流传的没得到研究证明的方法或许有一定效果,但每位癌症患者的治疗时间窗口非常宝贵,别因此错过了已经证明有效的方法和最佳治疗时机。“不当的治疗方法还可能损害身体抵抗力,导致癌症进一步恶化。”杨雪说。
“无论是什么疗法,都只是患癌后不得不面对的选择,更重要的还是预防癌症的发生。”杨雪建议,日常生活中,人们应当每年进行一次包含癌症检测项目的体检;对于有癌症家族史的人群,可以考虑去医院做遗传咨询或基因检测;另外,也要注意养成健康的生活方式,做到饮食均衡,注意控制体重,戒烟戒酒,规律作息,保持情志舒畅。(记者 罗朝淑)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |