• 金鼎卫生院信息网
  • 您的位置:首页 >> 热点专题 >> 正文

    AI时代的“数据隐私”与“算法歧视”

    发表时间:2019-09-28 信息来源:www.giaoxuphuoc.com 浏览次数:1828

     

    原始标题:AI时代的“数据隐私”和“算法歧视”

    如果在过去的二十年里,科学和技术成就与上个世纪的计算机发明相当,那么这一荣誉必须属于基于深度学习算法的人工智能技术。由于学习算法的诞生,信息时代和信息曾经,它可以充分为人们提供商业价值,并将开辟人类人工智能的时代。

    但是,进入人工智能时代的人们也在获得许多技术创新的同时付出了自己的代价:在这个数据时代,即生产力,我们在数据AI的时代不断徘徊。

    人工智能:算法和数据

    如今,智能手机,街道监控,地铁安全和其他设备都在不同程度上融入了人工智能技术。实际上,当前的“AI智能”只是线性规划规则下对大数据的有效“搜索”。这样一来,通过深度学习不断改进“搜索模式”和“反馈模式”,就没有真正独立思考的能力,因此也被称为“弱人工智能”或“轻型人工智能”。 “

    然而,即使是没有思考能力的AI,在分析和处理海量数据方面也具有超过人力资源的“革命性”优势。数据,算法和计算能力作为数据驱动的“准人工智能”的三个要素决定了AI的上限和价值空间。其中,算法和计算能力是数据载体。如果将AI算法与一个引擎进行比较,那么数据本身就是AI的“燃料”。

    对于大数据,百度百科将其定义为“大规模,高增长率和多样化的信息资产,无法在一定时间内通过常规软件工具捕获,管理和处理,因此需要新的处理模式来具有更强的决策能力,洞察力和流程优化功能。”小发猫使用5V表示大数据的特征,即:容量(大),速度(高速),种类(多样性),值(低值密度),准确性(真实性)。

    人工智能与数据特别相关。一方面,大数据为AI提供了数据资源以使其成长和发展。另一方面,人工智能使用数学模型分析来分析和检索大型数据库,并充分挖掘数据背后的潜在价值。 Victor Mayer-Schoenberg在《大数据时代》中对此进行了描述:“大数据并不能提供最终的答案,它只是指答案,它为我们提供了临时帮助,以等待更好的方法和答案出现。它还提醒我们,当我们使用此工具,我们应该谦虚并牢记人性的基础。

    个人隐私的“数据AI”和“双重反对”

    毫无疑问,已经逐渐应用的“数据人工智能”技术在很大程度上为我们的生活创造了极大的便利,例如离线人脸识别支付系统的便利体验,人工智能人脸识别在安全中的应用。领域,有效地提高了安全检查的效率,以及基于用户数据肖像的数字营销。基于“数据AI”,人们可以实现有效的风险控制和行为预测。随着“数据AI”的商业应用,人们在享受便利的同时还承担了隐私披露的风险和顾虑。

    想象一下,在数据世界中,对您的家庭和社交关系的最佳理解可能是您习惯的社交软件。最了解您的财务状况可能是您常用的支付软件,并了解您的购物习惯和消费。这种能力是您经常在线购买的平台。如果您将这些数据组合在一起,它就是一个完整而准确的数据肖像。一旦这些数据被泄露,它将使你“完全”完全暴露于数据世界,你会很奇怪。人们窥视甚至用于非法商业交易。

    此前,根据《华尔街日报》,一家英国子公司的首席执行官接到了“老板”的电话,并要求他在一小时内将钱转移到“供应商”。他使用AI语音技术成功地被犯罪分子欺骗。欧元,

    AI语音不仅具有隐私和安全问题,实际上,AI视频面部变化也存在隐私漏洞。以最近的人工智能变脸APP:ZAO为例,随着热度的飙升,其广泛批评的用户协议以及变脸视频的隐私和安全问题也使其陷入了舆论的漩涡。原因是因为改变面貌的视频触及了人们心中的红线:当视频可以伪造时,有什么样的证据可以说出真相?

    目前,人工智能技术的发展需要人们开放数据,另一方面,实际上,个人数据的开放必然会导致数据泄露的风险。目前,大多数公司必须通过其软件通知用户并获得用户同意以收集用户信息。根据一项调查,如果您想完全阅读隐私政策,则意味着消费者每年需要花费超过200小时。没有人愿意在这件事上浪费时间。

    从本质上讲,数据开放性和隐私保护之间的关系最初是二元对立。一方的收益必须意味着另一方的风险和损失。在现阶段,没有有效的一个。数据黑盒机制确保了个人数据的绝对安全性。对于那些刚刚进入人工智能时代的人来说,数据的开放已成为一种“趋势”。在数据生产力时代,以数据集成,流通,数据反馈等为主体的“数据价值创造”将带来飞跃的效率提升。

    数据价值和隐私权的动态平衡“妥协”

    对数据披露的担忧源于对直接利益的担忧。事实上,打开数据的人也可以获得AI带来的便利服务。一项调查显示,它对自身没有影响,可以保证数据。在绝对安全的情况下,仍有不少人愿意分享与隐私相关的相关数据。

    另一方面,对于一些不愿意分享自己数据的人来说,路人的无意识行为也可能导致AI技术下的个人数据泄露。例如,在广场上许可的人可以获取路人的一些面部数据。在人脸识别技术下,将识别这些过路人并存储数据。对于他们来说,未知数据创建的数据将决定未来数据泄漏的风险。

    此外,数据本身的价值已成为数据泄露的原因之一。事实上,基于智能手机的信息收集比其他方法更容易。您可以通过智能手机的后门软件收集您的手机号码,地址簿和其他信息。如果用户没有足够的安全意识,许多软件安装默认会收集各种信息。通过智能手机的唯一标识信息,可以轻松集成数据并定位身份信息。

    由于AI时代的数据资源属性,大量的用户数据是优化企业广告的关键。因此,数据的开放意味着巨大的商业价值。在生态布局下,巨头可以通过全链数据路径获得准确完整的数据。用户肖像和巨头也更容易商业化数据。

    对于AI技术的提供者而言,面向数据的数据收集非常必要。在早期阶段,人们会感到不安,因为数据被第三方使用,从而声称自己的隐私。实际上,如果数据本身应用程序不会给用户带来麻烦,并为其带来便利服务。此时,一些用户愿意接受共享数据,因此AI技术的提供者在数据值的商业应用中应该更加谨慎。态度。

    在我看来,在AI数据时代,需要在数据的商业化价值和用户的隐私权之间实现动态平衡。也就是说,在法律范围的关键点内,需要数据收集器和用户之间的连接机制。为确保在数据生产者的控制下,数据使用的商业价值有限,隐私保护与AI技术的便利性之间存在折衷。至于现行的隐私法,物权法和其他相关法律,对数据所有权没有明确的立法,数据的有限使用仍然需要依赖企业的意识。

    数据算法偏见下的“人工智能歧视”

    在大数据时代,数据具有非常低的存储成本,这意味着在数据驱动的AI时代,一旦生成数据,就很难完全消除它。在数据存储成本降低的影响下,完全删除数据的成本反而更高,因此数据存在的时间更长,甚至超过数据创建者自身的生命周期。随着存储成本的进一步降低,个人数据可能会在不久的将来无限期地存储。

    大数据的意义在于它不需要深入到事物的“规律性”中,而是直接应用于数据分析的结论。因此,大数据通常用于结果预测。事实上,基于数据的预测结果也是时间敏感的,时间效益是无效的。结果是基于数据分析的AI交互失真。

    也就是说,如果收集的数据本身具有一定的趋势,那么这样训练的AI自然具有这种倾向。来自美国的一项调查证明了这一点。在基于数据分析的基于人口的预测算法中,当预测一个群体时,该算法通常会将处于歧视性历史区域的人预测为黑色,事实上,这不是真的。

    另一个例子是在STEM(科学,技术,工程,数学)领域招聘广告。广告商发现广告很少提供给女性,事实上广告商希望这些广告是性别中立的。然而,在“双曲线折扣”效应下,数据的及时性导致数据“错位”,这进一步引发了“算法歧视”的问题。

    双曲线贴现,也称为非理性贴现,是行为经济学的概念。这种现象描述了贴现率不是一个不变量。具体而言,人们往往更接近评估未来收益的价值。期间使用较低的贴现率和较长的贴现率。

    例如,大多数人可能宁愿今天赚60元而不是每年100元,因为今天60元的收入可能更有价值,如果人们选择在一年后获得60元或两年。获得100元后,大多数人会选择在两年后获得100元。也就是说,由于收入时间的不同,人们做出不同的决定。

    因此,在双曲线贴现的情况下,人们的短期决策行为所产生的数据将导致数据本身不对齐,这使得在算法偏差引起的应用程序级别更容易引起“算法歧视”。数据偏差。因此,对于基于数据的AI的用户,应该在算法的应用级别采取更多的谨慎和谨慎。

    无论是数据AI时代的个人隐私问题还是数据偏见下的“算法歧视”,都是大数据AI发展中不可避免的问题。对于人们来说,无论是对数据收集端的隐私侵犯,还是AI应用程序级别的“算法歧视”都是道德甚至法律的边缘考验。对于仍处于“年轻时代”的人工智能技术,如何正确引导和影响其发展,并在人类道德和道德标准下创造更大价值,是“人工智能创造者”值得深思的。问题。回到搜狐看看更多

    负责编辑:

    2019-09-07 17: 24

    来源:亿欧元

    原始标题:AI时代的“数据隐私”和“算法歧视”

    如果在过去的二十年里,科学和技术成就与上个世纪的计算机发明相当,那么这一荣誉必须属于基于深度学习算法的人工智能技术。由于学习算法的诞生,信息时代和信息曾经,它可以充分为人们提供商业价值,并将开辟人类人工智能的时代。

    但是,进入人工智能时代的人们也在获得许多技术创新的同时付出了自己的代价:在这个数据时代,即生产力,我们在数据AI的时代不断徘徊。

    人工智能:算法和数据

    如今,智能手机,街道监控,地铁安全和其他设备都在不同程度上融入了人工智能技术。实际上,当前的“AI智能”只是线性规划规则下对大数据的有效“搜索”。这样一来,通过深度学习不断改进“搜索模式”和“反馈模式”,就没有真正独立思考的能力,因此也被称为“弱人工智能”或“轻型人工智能”。 “

    然而,即使是没有思考能力的AI,在分析和处理海量数据方面也具有超过人力资源的“革命性”优势。数据,算法和计算能力作为数据驱动的“准人工智能”的三个要素决定了AI的上限和价值空间。其中,算法和计算能力是数据载体。如果将AI算法与一个引擎进行比较,那么数据本身就是AI的“燃料”。

    对于大数据,百度百科全书定义:“在特定时间范围内,传统软件工具无法捕获,管理和处理的数据集合。它需要新的处理模型才能具有更强的决策能力,洞察力和流程优化。巨大的容量,高增长率和多样化的信息资产。“小发猫使用5V来表示大数据的特征,即:体积,速度,品种,价值,低价值密度,真实性(真实性)。

    AI特别贴近数据。一方面,大数据为AI的发展和发展提供了数据资源。另一方面,AI通过数学模型分析分析和检索庞大的数据库,充分利用数据背后的潜在价值。 Victor Meyer-Schonberg在《大数据时代》中对此进行了描述:“大数据不是最终答案,只是对答案的引用,为我们提供临时帮助,以便等待更好的方法和答案。这也提醒我们在使用时工具,我们应该谦虚并牢记人性。“

    个人隐私的“数据AI”和“二元对立”

    毫无疑问,逐渐应用的“数据AI”技术为我们的生活带来了极大的便利,例如离线人脸识别支付系统的便利体验和安全领域的AI面貌。识别应用有效地提高了安全效率,基于用户数据图像的数字营销。基于“数据AI”,人们可以实现有效的风险管理和行为预测,并且随着“数据AI”的商业应用,人们享受到隐私泄露的便利性和风险与关注。

    想象一下,在数据世界中,对您的家庭和社交关系的最佳理解可能是您习惯的社交软件。最了解您的财务状况可能是您常用的支付软件,并了解您的购物习惯和消费。这种能力是您经常在线购买的平台。如果您将这些数据组合在一起,它就是一个完整而准确的数据肖像。一旦这些数据被泄露,它将使你“完全”完全暴露于数据世界,你会很奇怪。人们窥视甚至用于非法商业交易。

    此前,根据《华尔街日报》,一家英国子公司的首席执行官接到了“老板”的电话,并要求他在一小时内将钱转移到“供应商”。他使用AI语音技术成功地被犯罪分子欺骗。欧元,

    AI语音不仅具有隐私和安全问题,实际上,AI视频面部变化也存在隐私漏洞。以最近的人工智能变脸APP:ZAO为例,随着热度的飙升,其广泛批评的用户协议以及变脸视频的隐私和安全问题也使其陷入了舆论的漩涡。原因是因为改变面貌的视频触及了人们心中的红线:当视频可以伪造时,有什么样的证据可以说出真相?

    目前,人工智能技术的发展需要人们开放数据,另一方面,实际上,个人数据的开放必然会导致数据泄露的风险。目前,大多数公司必须通过其软件通知用户并获得用户同意以收集用户信息。根据一项调查,如果您想完全阅读隐私政策,则意味着消费者每年需要花费超过200小时。没有人愿意在这件事上浪费时间。

    从本质上讲,数据开放性和隐私保护之间的关系最初是二元对立。一方的收益必须意味着另一方的风险和损失。在现阶段,没有有效的一个。数据黑盒机制确保了个人数据的绝对安全性。对于那些刚刚进入人工智能时代的人来说,数据的开放已成为一种“趋势”。在数据生产力时代,以数据集成,流通,数据反馈等为主体的“数据价值创造”将带来飞跃的效率提升。

    数据价值和隐私权的动态平衡“妥协”

    对数据披露的担忧源于对直接利益的担忧。事实上,打开数据的人也可以获得AI带来的便利服务。一项调查显示,它对自身没有影响,可以保证数据。在绝对安全的情况下,仍有不少人愿意分享与隐私相关的相关数据。

    另一方面,对于一些不愿意分享自己数据的人来说,路人的无意识行为也可能导致AI技术下的个人数据泄露。例如,在广场上许可的人可以获取路人的一些面部数据。在人脸识别技术下,将识别这些过路人并存储数据。对于他们来说,未知数据创建的数据将决定未来数据泄漏的风险。

    此外,数据本身的价值已成为数据泄露的原因之一。事实上,基于智能手机的信息收集比其他方法更容易。您可以通过智能手机的后门软件收集您的手机号码,地址簿和其他信息。如果用户没有足够的安全意识,许多软件安装默认会收集各种信息。通过智能手机的唯一标识信息,可以轻松集成数据并定位身份信息。

    由于AI时代的数据资源属性,大量的用户数据是优化企业广告的关键。因此,数据的开放意味着巨大的商业价值。在生态布局下,巨头可以通过全链数据路径获得准确完整的数据。用户肖像和巨头也更容易商业化数据。

    对于AI技术的提供者而言,面向数据的数据收集非常必要。在早期阶段,人们会感到不安,因为数据被第三方使用,从而声称自己的隐私。实际上,如果数据本身应用程序不会给用户带来麻烦,并为其带来便利服务。此时,一些用户愿意接受共享数据,因此AI技术的提供者在数据值的商业应用中应该更加谨慎。态度。

    在我看来,在AI数据时代,需要在数据的商业化价值和用户的隐私权之间实现动态平衡。也就是说,在法律范围的关键点内,需要数据收集器和用户之间的连接机制。为确保在数据生产者的控制下,数据使用的商业价值有限,隐私保护与AI技术的便利性之间存在折衷。至于现行的隐私法,物权法和其他相关法律,对数据所有权没有明确的立法,数据的有限使用仍然需要依赖企业的意识。

    数据算法偏见下的“人工智能歧视”

    在大数据时代,数据的存储成本非常低,这意味着在数据驱动的人工智能时代,数据一旦生成,就很难完全消除。在数据存储成本的递减效应下,完全删除数据的成本反而更高,因此数据存在的时间更长,甚至超过了数据创建者本身的生命周期。随着存储成本的进一步降低,个人数据可能在不久的将来无限期地存储。

    大数据的意义在于,它不需要深入事物的“规律性”,直接应用于数据分析的结论。因此,经常使用大数据进行结果预测。事实上,基于数据的预测结果也是时间敏感的,时间有效性是无效的。结果是基于数据分析的人工智能交互失真。

    也就是说,如果收集到的数据本身有一定的趋势,那么这样训练出来的人工智能自然就有这样的趋势。美国的一项调查证明了这一点。在一种基于数据分析的人口预测算法中,当预测一个群体时,该算法通常将处于歧视性历史区域的人预测为黑色,而事实并非如此。

    另一个例子是在STEM(科学、技术、工程、数学)领域招聘广告。广告商发现这些广告很少给女性,事实上广告商希望这些广告是中性的。然而,在“双曲折扣”效应下,数据的及时性导致了数据的“错位”,从而进一步引发了“算法判别”问题。

    双曲贴现,又称非理性贴现,是行为经济学的一个概念。这种现象说明贴现率不是一个不变的。具体来说,人们更倾向于评估未来收益的价值。该期间使用较低的贴现率,较长期间使用较高的贴现率。

    例如,大多数人可能更喜欢今天挣60元,而不是一年挣100元,因为今天60元的收入可能更有价值,如果人们选择在一年后挣60元或两年。拿到100元后,大多数人会选择两年后拿到100元。也就是说,人们会因为收入时间的不同而做出不同的决定。

    因此,在双曲贴现的情况下,人们的短期决策行为所产生的数据会导致数据本身的偏差,这使得在数据偏差导致算法偏差后,更容易在应用层引起“算法判别”。因此,对于基于数据的人工智能的用户来说,应该在算法的应用层面上更加谨慎和小心。

    无论是数据人工智能时代的个人隐私问题,还是数据偏差下的“算法歧视”,都是大数据人工智能发展中不可避免的问题。对于人们来说,无论是侵犯隐私的数据采集端,还是人工智能应用层面的“算法鉴别”,都是对道德乃至法律的边缘考验。对于尚处于“幼年期”的人工智能技术来说,如何正确引导和影响其发展,在人类道德和道德规范下创造更大的价值,是值得深思的“人工智能创造者”。问题是。返回搜狐查看更多信息

    责任编辑:

    免责声明:本文仅代表作者本人,搜狐是信息发布平台,而搜狐只提供信息存储空间服务。

    数据

    算法

    隐私

    用户

    贴现率

    读()

  • 热门标签

  • 日期归档

  • 友情链接:

    金鼎卫生院信息网 版权所有© www.giaoxuphuoc.com 技术支持:金鼎卫生院信息网 | 网站地图