人工智能(AI)法律法规

Veštačka inteligencija

人工智能(AI)正在以非凡的方式彻底改变我们的世界。从定制医疗到自动驾驶汽车,人工 智能正日益融入我们的日常生活。如今,什么是人工智能,人工智能将如何影响我们的日常 生活已经成为常见的话题。由于这些技术的快速发展,人工智能法律监管已成为欧盟(EU) 近来关注的一个重要政策问题。政策制定者致力于制定一个优先考虑人类福祉的人工智能 AI 框架,旨在确保欧洲人能够利用符合欧盟核心价值观和原则的新兴技术。

2021 年 4 月,欧盟委员会在欧盟(EU)范围内提出了一项关于人工智能 AI 监管框架的提案 。该人工智能法案草案标志着首次尝试建立全面的人工智能法律监管,主要集中在如何使用 人工智能系统以及与之相关的潜在风险。欧盟理事会于 2021 年 12 月就欧盟成员国的总体立 场达成共识,议会于 2023 年 6 月就其立场进行表决。目前,欧盟立法者正在开始谈判,以 最终确定这部《人工智能法》(Artificial Intelligence Law)。

《人工智能法》是欧盟制定的一项综合性立法工具,旨在统一适用于所有进入市场、在欧盟 范围内使用的人工智能系统,以及人工智能系统的用户是否位于欧盟境内。《人工智能法》 的核心要素是一个分类系统,用于评估人工智能技术可能对个人福祉、安全或基本权利造成 的潜在风险。该框架包括四个风险等级:不可接受、高、有限和最低。

Zakon o veštačkoj inteligenciji propisuje da se sistemi koji se smatraju neprihvatljivim zbog visokog nivoa rizika, kao što su ocenjivanje društvenog ponašanja od strane Vlade i sistemi za identifikaciju na javnim mestima putem biometrijskih rešenja, zabranjuju, osim u izuzetnim slučajevima. Visokorizični AI sistemi su dozvoljeni, ali programeri i korisnici su obavezni da se pridržavaju regulativa koje zahtevaju temeljno testiranje, pažljivo vođenje dokumentacije o kvalitetu podataka i odgovornost koja definiše nadzor od strane ljudi. Takođe, ovi modeli moraju biti registrovani u bazi podataka EU. Primeri AI sistema koji potpadaju u kategoriju visokog rizika, između ostalog obuhvataju autonomna vozila, pravosudne postupke, medicinske uređaje i mašine za infrastrukturu. AI sistemi koji predstavljaju „ograničeni rizik“, kao što su četbotovi, podložni su obavezama transparentnosti, što znači da korisnik mora biti obavešten da se njihova interakcija generiše pomoću veštačke inteligencije. S druge strane, Zakon o veštačkoj inteligenciji EU propisuje da se AI sistemi koji se kategorizuju kao niski ili minimalni rizik neće podvrgavati dodatnim pravnim zahtevima.

数据保护与人工智能 AI 技术

数据保护无疑是当今至关重要的法律话题之一,GDPR 和《塞尔维亚个人数据保护法》(the Law on Personal Data Protection of Serbia)等法律的制定改变了企业处理 个人数据的方式。因此,企业越来越优先考虑在安全方面进行投资,以减少漏洞并 降低监控、黑客攻击和网络攻击的风险。

数据保护和人工智能技术应该放在一起讨论,因为人工智能的使用往往涉及大量数据的收集 、处理和分析。人工智能在商业中的应用意味着其运作应符合合法性、公平性和透明度。这 包括有义务向其个人数据正在接受处理的个人提供有关其数据收集和处理的全面而透明的信 息。数据控制者还必须与这些个人保持公平的关系。人工智能公司在启动这一过程时,应先 确定所收集的个人数据的性质、存储位置和访问权限,这一过程被称为数据映射。随后,数 据管理应遵守法律原则。该过程需要创建一份数据被处理的个人名单,明确说明数据处理的 法律依据和目的,并对员工进行有关合法收集和处理个人数据的教育。此外,人工智能公司 应确定数据保护所需的文件并生成这些文件。记录包括保存个人对其数据处理的请求记录, 以及保存向第三方传输数据和向境外输出数据的证据的流程。

知识产权与人工智能 AI

在塔林举行的数字峰会上,与会者强调,在未来十年中,多达 50%的工作任务将通过使用人 工智能(AI)实现自动化。人工智能已经发挥了一些创造性的作用,如撰写小说、绘画、生 成演讲稿和写诗。知识产权和人工智能是相互依存的两个领域,人工智能已经提出了许多知 识产权问题,如:谁应该受益人工智能创造的作品的人身和精神权利?人工智能能否被视为 发明者,从而享有人工智能作品的版权?如果我拥有版权,ChatGPT 是否可以未经许可使用 我的作品来训练系统?目前,与人工智能相关的案例法大多与涉嫌侵犯版权有关。

根据《塞尔维亚版权法》(the Serbian Law on Copyright),作品是作者以一定形式表达的原创 智力创作。作者是创作了作品的自然人,因此,不是自然人的人工智能系统不能被视为作者 ,也不能享有版权。 为了说明问题,创建软件的人是该软件 的作者,但他/她不是该人工智能系统生成的照片等的作者。链接:博客——软件法律保护。

Verovatno će u budućnosti Zakon o autorskim pravima biti promenjen zbog tehnologija AI koje se razvijaju. Da bi se podržale investicije u AI, najverovatniji pristup autorskim pravima je onaj koji dodeljuje autorska prava subjektu koji omogućava stvaranje AI. Na primer, novi Zakon o autorskim i srodnim pravima koji uvodi AI kao stvaraoca stupio je na snagu u Ukrajini 1. januara 2023. godine. On uvodi „sui generis“ pravo koje štiti neoriginalna dela stvorena uz upotrebu AI – dela koja su stvorena bez učešća ljudi.

人工智能 AI 系统造成损害的责任

在当今技术驱动的世界中,人工智能系统造成损害的责任是一个复杂且不断发展的法律问题 。我们经常会听到这样的问题:人工智能危险吗?此外,随着人工智能技术在方方面面越来 越多地融入我们生活,当人工智能系统出现故障或造成损害时,谁应该承担责任的问题也随 之而来。传统的责任框架可能并不足够。目前,法律框架在制定人工智能系统准确的责任规 则方面面临着挑战。在如果想要建立一个高效的结构来解决人工智能造成的损害,促进创新 和确保人工智能系统造成损害的责任之间实现和谐统一是至关重要的一点。

欧盟《人工智能 责任指令》(AI Liability Directive)无疑是朝着这一方向迈出了积极的一步,该指令加强并更新 了欧盟的民事责任结构,纳入了专门针对人工智能系统所造成损害的法规。

在医学中使用人工智能 AI 的法律问题

利用人工智能模型分析医疗信息并提取有价值的见解,以提高医疗效果和患者福祉,是人工 智能在医疗领域应用的特点。信息技术的最新进展加速了人工智能(AI)的整合,使其成为 医疗实践的重要组成部分。目前,人工智能在医学中通常用于临床决策支持和成像分析。临 床决策支持系统可帮助医疗服务提供者就病人的治疗、用药等做出明智的决定。在成像分析 方面,人工智能也被用于检查 CT 扫描、X 射线、核磁共振成像等。

关于在医学中使用人工智能的法律问题,必须指出的是,人工智能临床决策支持软件通过数 据收集从选定患者的健康数据中收集见解,使其能够为其他患者提供建议。因此,医生必须 处理可能与保密和隐私相关的问题,因为患者有权了解其保密健康数据被用于研究、诊断和 治疗目的的方法。此外,人工智能系统在医疗领域造成损害的责任也是一个关键问题,因为 人工智能决策的不准确可能导致错误诊断或提供不当治疗。医疗保健专业人员与人工智能开 发人员之间的责任分配是一项具有挑战性的任务。此外,毋庸置疑,大多数适用的医疗保健 法律都是在人工智能出现之前制定的,因此必须对这些法律进行修订。人工智能在医疗领域 的应用无疑涉及道德问题,需要我们给予即时的关注。人工智能的道德问题包括安全性、透 明度、算法公平性和数据隐私。

从法律角度看人工智能的伦理问题

伦理是道德标准的集合,有助于区分道德上的正确与错误。人工智能伦理研究如何最大限度 地发挥人工智能的积极影响,同时最大限度地降低潜在风险和负面影响。人工智能的性能与 其设计、开发、培训和使用相一致。法律背景下的人工智能伦理侧重于在人工智能系统存在 的每个阶段创建一个伦理原则和指导方针框架。

各国政府、研究人员和开发人员一致认为,有效的治理方案应明确从事人工智能工作的个人 的职责和义务,并制定构建、监督和讨论人工智能及其相关风险的程序。

与人工智能相关案件的判例法

著名人工智能工具 ChatGPT 背后的公司 Open AI 已经面临诉讼。旧金山联邦法院已经受理了 一起集体诉讼,据称该公司在开发 ChatGPT 的过程中违反了多项隐私法。毋庸置疑 ,ChatGPT 是史上发展最迅速的消费者应用程序,它吸引了大量的目光。Open AI 被指控滥用 来自社交媒体平台和其他网站的用户个人数据来训练 ChatGPT。这就是为什么数据保护和人 工智能 AI 技术应放在一起讨论的一个很好的例子。

此外,其他针对人工智能公司的诉讼也因涉嫌侵犯版权而层出不穷。毫无疑问,任何作者都 应从其作品创作之时起就对其作品享有精神和金钱权利。链接 塞尔维亚的版权 索赔人--作者 指出,Open AI 公司在未经其同意的情况下,将其小说用作人工智能工具的训练数据。他们 声称,ChatGPT 可以生成多部侵权作品的精确摘要。考虑到 Open AI 公司并未对其小说进行 授权,因此他们无法从其作品中获得经济利益。

说到知识产权和人工智能 AI,图片库公司 Getty Images 在美国对文本到图像模型 Stable Diffusion 提起了版权侵权诉讼。Getty Images 声称,这家世界领先的开源生成式人工智能公 司未经许可或赔偿,从其数据库中复制了 1200 多万张图片。

在许多国家,与人工智能相关的判例法仍不存在,但这些诉讼的结果将对其产生影响,这一 点毋庸置疑。

塞尔维亚人工智能方向律师

《欧盟人工智能法》(Artificial Intelligence Law)是人工智能法律监管方面的首个切实的尝试。 其目标是通过制定规范欧盟内人工智能创造和使用的标准化法规,将欧洲转变为一个重要的 可靠的人工智能中心。在欧洲议会、欧盟理事会和欧盟委员会敲定条款后,将有两年左右的 宽限期,以便各方遵守法规。宽限期过后,将对不遵守人工智能法律法规的行为处以不同程 度的行政处罚——最高可达 3000 万欧元或全球年营业额的 6%。

根据人工智能律师事务所的观察,始终如一地执行新法规往往是困难和耗时的。塞尔维亚的 人工智能方向律师认为,及时采取行动以满足最后期限要求并促进持久转型至关重要,他们 可以帮助公司了解并遵守欧盟人工智能法中列出的要求。如果您需要有关人工智能法律法规 的法律服务,请通过电子邮件与我们联系: [email protected].

For this BLOG, the following references were used:

Sonja Pekic Advokat Novi Sad

作者

Sonja Pekić 律師

workplace-injury

工伤

年,塞尔维亚轻罪法庭解决了约 400 起因不遵守职业安全和健康措施而导致的工伤案 件。统计数据显示,此类案件还有很多,但员工出于各种原因没有举报,包括害怕失去工作 、不了解自己的权利、对法律系统缺乏信任等。

了解更多
Advokat za imigraciono pravo Sonja Pekic

外国人在塞尔维亚就业

对于面临合格劳动力短缺的雇主来说,在塞尔维亚雇用外国人正日益成为一种更好的选择。随着新的《外籍人士法》(Law on Foreigners)的出台

了解更多