佰家富app官网网址-佰家富app规则
佰家富app手机版2023-01-31 16:05

佰家富app官网网址

公司员工年会醉酒身亡 法院判令死者担责95%******

  □ 本报记者   章宁旦

  □ 本报通讯员 黄彩华

  春节将至,又到了人们聚餐喝酒较多的时节,但欢乐的同时也要防止乐极生悲。近日,广东省东莞市第二人民法院通报一起因年底聚餐醉酒引发的猝死索赔案。法院认定醉酒猝死者作为完全行为能力人自行担责95%,聚餐组织者担责5%,其他同桌人已尽一般社交安全义务,无需担责。

  酒后猝死:员工家属索赔逾百万元

  20多岁的吴某是深圳某公司员工,被派驻公司关联企业东莞某公司。2021年2月2日18时许,吴某和几个同事一起,在东莞某公司食堂参加年会聚餐。同桌就餐人员有何某某等6人,其间吴某喝了酒。当天20时许,吴某由同桌两人搀扶,该公司负责人跟随其后,送往公司宿舍楼休息,给其两瓶矿泉水后离开。

  吴某室友称,吴某当晚两次呕吐,他都帮忙清理了。次日上午,东莞某公司负责人带牛奶鸡蛋到宿舍探视,询问吴某是否喝多。吴某苏醒,但摆手表示不想吃东西。当天13时,室友回到宿舍,吴某听到动静后起床。室友询问吴某是否严重,吴某没有回答,看了看自己的被子、枕头、衣服说“怎么这样”,就进了洗手间。室友随即离开宿舍上班。18时许,室友下班发现吴某晕倒在宿舍洗手间,便呼喊同事救助,并拨打120。急救人员赶到,吴某已无心跳。室友随后报警。

  2021年7月,吴某家属向东莞市第二人民法院状告深圳某公司、东莞某公司以及跟吴某同桌用餐的6人,认为对方未尽安全保障义务,索赔共计111万多元。

  法院判决:聚餐组织者承担5%责任

  法院经审理认为:本案为生命权、健康权、身体权纠纷。本案关键在于吴某的死亡应由谁承担责任。

  关于吴某死因,公安机关出具的死亡证明显示死因为心源性猝死,由于未进行尸检,也没有检测血液中的酒精浓度,现已无法通过医疗检验手段确定。根据聚餐当晚与吴某同桌的两人在公安机关的陈述,吴某聚餐时喝了酒,结合吴某在聚餐后需要同桌两人搀扶回宿舍,以及回到宿舍后两次呕吐的情况可以推定,吴某死亡前存在醉酒情况。加上吴某对室友的问话未正常回应,无法正常上班,饮酒第二天即死亡,由此可推定,吴某死亡与饮酒有关。

  关于责任承担,吴某为有完全民事行为能力的成年人,应对饮酒可能造成的危险后果有足够清醒的认识,其对死亡结果承担主要责任。东莞某公司是聚餐组织者,提供了白酒、红酒、啤酒,在吴某饮酒后两次呕吐、次日无法正常上班的情况下未及时将其送医治疗,应对吴某的死亡承担一定责任。深圳某公司未组织和参与聚餐,吴某作为深圳某公司员工参与聚餐,并不属于工作任务,人社部门亦认定吴某的死亡不属于工伤,故深圳某公司无需承担责任。吴某家属未能举证证明聚餐他人存在恶意劝酒行为,餐桌上正常共同饮酒不构成侵权,因而不能产生法律上的权利义务,故同桌者没有法定救助义务。聚餐结束后,同桌两人将吴某搀扶回宿舍,另一人跟随其后,并为吴某准备矿泉水,结合没有证据证明当时存在其他异常情况,法院认定同桌者已尽到安全注意义务,没有过错。吴某家属要求同桌者对吴某死亡应当有预见性以及承担相应义务,明显超出一般社交应尽注意义务的边界,法院不予支持。

  综上,根据各方过错,法院酌定吴某自行承担95%责任,东莞某公司承担5%责任,其他被告无需担责。

  吴某家属不服,提出上诉。近日,东莞市中级人民法院终审驳回上诉,维持原判。

  法官说法:不能无限扩大同桌责任

  承办本案审判的东莞市第二人民法院法官方淑敏称,同桌吃饭一起喝酒,是社会常见现象。聚餐中,喝酒者是自身健康的第一责任人,要对自身喝酒可能产生的后果承担最大责任。如果喝酒者酒后发生意外,组织者和同桌者存在强迫性劝酒行为、明知喝酒者不能喝酒仍劝其喝酒、喝酒者失去自控能力但同桌者未安全护送、明知喝酒者酒后驾车未劝阻等情况,同桌者则需承担法律责任。但如果组织者和同桌者已尽了正常安全注意义务,则不能将其责任义务无限扩大理解,否则就会人人自危,影响正常社会交往。

人工智能如何做到可信、可用?专家热议:把责任归结到个人******

  中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?

  近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。

  中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。

  “因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。

  清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。

  “技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。

  瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。

  “但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。

  将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?

  高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。

  高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”

  “在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。

  “在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。

  2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)

中国网客户端

国家重点新闻网站,9语种权威发布

佰家富app地图