读所罗门的密码笔记15_数据透明度
  BD8Mqa3Ktdyv 2024年04月10日 14 0

1. 数据透明度与控制权

1.1. 作为人类,我们会带有偏见,而且往往不知道自己在智力和情感上的盲区

1.2. 精心制作的人工智能机器,即使有自己的缺点,也能帮助我们做出更客观的决定,为提升我们的生活质量和改善社区的生态环境做出贡献

1.3. 美国的人工智能专家已经在研究能够帮助人们避免食物短缺和饥荒的系统,方法是将天气、土壤、基础设施和市场等各种因素的变化整合到复杂的模型中,以缓解短缺问题

1.4. 即如何应对限制个人发挥最大潜能的工作压力

1.5. 该公司利用人工智能对员工进行情绪分析,并通过Fitbit、苹果手表或类似的可穿戴设备测量员工的某些生命体征

1.6. 认知计算可以增加或减少我们选择的自由,但后者的风险随着人们对个人数据的大规模搜集和操作而不断增加

1.6.1. 人类和机器之间相互了解的平衡有可能会被打破

1.6.2. 人工智能可能会增强人类的能力,但如果个人和控制我们数据的实体之间没有基本的平等意识,它也可能限制我们发挥最大的潜能,因为我们牺牲了自己的自主决定权

1.6.3. 用机器判断取代人类判断可能会拓宽或缩小我们的视野,也可能会增加或减少我们的社会和经济选择

1.7. 推动意识的平等有助于揭示人工智能系统的有益用途和操纵性用途之间的许多难以定义的临界点

1.7.1. 允许每个人访问从自己身上搜集到的信息,并允许他们将其删除,或将其转移至新工作岗位或新的医疗服务提供商那里

1.8. 要识别和监控利弊之间的界限,将需要更高的透明度和针对新算法、数据集以及平台的公众监督

1.8.1. 我们几乎无法一致地确定长期课程和实体教科书是教育还是洗脑,更不用说对人工智能系统为学习提供更微妙的助推作用的领域进行判断了

1.8.2. Erudite将探索一种向上累加的评分方式,就像玩电子游戏一样

1.8.2.1. 学生们从某个基本分开始,随着他们不断获取知识,分数会慢慢往上涨

1.8.3. 重新设定目标和以奖代惩将有助于增加人们对智能机器的信任,直到达成完全透明和可解释的效果

1.8.4. 人工智能技术的不断发展将提高我们分析算法和数据集的能力

1.9. 只有公众监督才能实现从更广泛的社会视角来确保这些算法和数据集的质量

1.9.1. 如果我们继续努力,建立能够审核人工智能系统、平衡企业利益和社区价值的机构,那么人类就能避免被这些智能大脑操纵

2. 认知计算的力量

2.1. 一些公司在搜集、分析并销售海量的个人数据

2.2. 大公司能够编译的意识深度与他们实际编译的程度不同,这可能有助于意味着机器比我们自己更了解我们的身心状况我们减轻一些焦虑

2.2.1. 人们对公司搜集的主要数据拥有控制权,但这些公司似乎仍然可以控制它们从这些数据中得出的见解

2.2.2. 一些情感内敛的人可能会反对其中的许多标签,特别是当它基于数据流只捕获了他们身份的一个侧面时(而且通常是伪造出来的)

2.2.3. 有时候,这种不加修饰的反馈提供了有价值的见解,但经验丰富的教练和心理学家表示,只有在人们以恰当的方式进行表达时,这些反馈才是有效的

2.2.4. 很多人情商不高、不具备同理心、无法察觉他人的情绪,但是我们对此心知肚明,并且如果没有情感虐待、蓄意伤害或诽谤的迹象,我们在人际交往中能够接受相当高程度的不确定性

2.2.5. 意味着机器比我们自己更了解我们的身心状况

2.2.6. 这台机器正在不断地对你和与你有联系的人进行分析,但它从来没有把它的观点发送给你或他们

2.2.7. 你从欧洲来到美国,你的人工智能助手可能受到欧盟更严格的隐私保护条例的约束,限制你接收深度分析,让你对乔治和他的动机了解甚少

2.3. 认知就是力量,一系列个人和社会因素都会影响我们如何平衡这种力量

2.3.1. 不同的监管机制、参与数字经济的意愿以及购买更好的产品的能力,都将影响认知能力的不平等分配

2.3.2. 知识的力量被不断重新协商、测试、打破、验证和重置

3. 信任来自真相和透明

3.1. 人类的价值和信任都依赖于人与人之间的某种理解,这种理解需要某种最低限度的信任

3.2. 尽管欧洲的监管环境可能使得该地区不会产生本土的数字巨头,但它已开始将一个拥有5亿人口的单一数字市场统一起来,并制订了可能孕育“数字公地巨头”的计划

3.2.1. 欧盟的最新目标是创建一个大型、公开、开放的数据集,用于训练人工智能系统

3.2.2. 它将为大量新模型和应用程序提供资源,其中包括许多我们甚至尚未想象到的项目

3.2.3. 即使是最精通人工智能的公司,也拥有许多不知道如何处理的数据,其中许多数据与它们的业务模式无关

3.2.4. 我们可以测量输出,衡量它们如何随不同的输入而变化,这本质上是对最终结果的完整性的更好解释

3.2.4.1. 这些系统的影响往往在事后才能被衡量,尤其是当它们影响我们的健康、指导政府资源的分配,或与社会文化价值观发生冲突时

3.2.4.2. 我们的人工智能助手会在我们第一次约会时捕捉到一些难以察觉的线索和数据,并将其识别为不可避免的不理想的配对

3.2.5. 如果没有一个对机器质疑某个配对关系的清晰解释,那么人们如何信任它的决定呢?

3.2.6. 如果该公司的人工智能平台开始识别人们的弱点,并认为这些人都风险太大,无法与任何人匹配,那该怎么办?

3.3. 我们需要维持类似的信任度和共同的价值观,并保持人机力量的适当平衡

3.4. 随着人工智能的日益普及,我们将对透明度和开发人员口中的“可解释性”提出更高的要求

3.5. 它的“一刀切”做法引起了一些人的不满,因为许多应用程序并不需要完美的解释

3.6. 社会有时会倾向于接受不那么完美的解释

3.7. 事实上我们无法确定其背后精确的推演过程

3.8. 生活中没有什么是确定的

3.8.1. 即使是机器学习和神经网络,也只是根据过去的模式推断出概率,而不是完美地进行预测

3.8.2. 当我们的情感和身体健康面临较大的风险时,我们就会提高对不了解的事物的信任门槛

3.8.3. 如果人工智能系统还不能很好地解释它所做的决定,以培养更深层次的信任,那么人们自然会偏向谨慎,并限制人工智能所能带来的好处

3.8.4. 随着时间的推移,我们会尝试着向可解释性靠拢,在应用程序缺乏确定性的情况下感受我们的舒适程度

4. 人工智能与社会两极分化

4.1. 由于智能机器依赖于不断获取新的数据,它们可能会扩大联网地区和未联网地区之间的数字鸿沟

4.2.   能够负担得起更高级的访问权限或更深层次的交互的人将继续利用自身的优势,因为他们产生的数字足迹具有经济价值,他们可以利用这些数据来换取更多的访问权限

4.3. 即使是在人民富足、数据丰富的地方,人工智能也可能使社会两极分化,它可能会让观点相似的人聚在一起,强化他们的信仰和价值观,并限制那些迫使我们深入思考这些原则的互动和摩擦,这就是我们在美国社会所看到的

4.4. 人工智能系统可以促进数字社会工程,创建平行的微观社会,赋予企业更多样的能力,让企业可以瞄准特定人群的求职者,并把其他人排除在外

4.5. 封建象征也适用于工作场所

4.5.1. 推动这些关系的公司往往拥有成本更低、灵活性更高的员工队伍

4.6. 数据地主们常常看起来很像《绿野仙踪》里的奥兹国巫师,他们之所以神通广大,很大程度上是因为他们可以像“幕后大佬”一般控制操纵杆,按下按钮

4.7. 视觉识别的云服务一直用人工来识别出机器标签有误的图像和视频,有时公司甚至会在海外雇用数千名员工

4.7.1. 机器只会对图像进行建议解释或标注潜在的异常区域,最终的诊断需要由人类放射科医生完成

4.7.2. 真实的拟人互动是可以实现的,但只能以狭义的形式存在

4.7.3. 人工介入在未来的几十年里仍然是必不可少的,尤其是在涉及伦理和道德决策时

4.7.4. 未来军方可以依靠机器做出包括使用致命武器在内的自动决策,尤其是在时间紧迫的防御场景中

4.7.4.1. 美国国防部已经在虚拟现实和其他模拟战斗系统上投入了大量资金来训练它们,但大多数人认为,这些系统还是需要人工介入,人工智能将“经受大量的训练,在未来为我们创造这些决策树

4.7.5. 任务驱动的机器犯致命错误和人犯同样错误之间存在着巨大的区别

4.7.5.1. 当人做决定时,我们允许他犯错,毕竟人无完人,但我们希望机器一直完美运作

4.7.5.2. 军事领导人不能对机器进行军事审判,尤其是一台它自己也无法解释系统如何做出决定的机器

4.7.5.3. 跨学科的方法,将人与机器一同放在模拟的虚拟现实场景中,让机器在人类做出决策和执行动作的过程中向其学习

4.7.5.4. 对机器人和智能体来说,它们的优势是能够利用人类可能无法立即访问的大型数据库的信息

4.7.5.5. 一位人类安保人员无法在高度紧张的高压环境下迅速而准确无误地完成任务

4.7.5.6. 机器人和智能体可以快速利用大数据来解决人类无法解决的问题,但智能体并不具备任何人类的道德感

4.7.5.7. 机器无法理解规范准则在不同场景下的变化,更不用说理解不同的文化了

4.8. 目标包含尽可能广泛的人类输入

4.8.1. 不得不把我们许多灰色地带的道德辩论变成非黑即白的代码

4.8.2. 芯片的处理能力,将广告匹配给合适的受众,或者为某人找到一位情投意合的浪漫伴侣的工具了

4.8.3. 代码对决策的影响远没有那么明显,它的利弊权衡更加模棱两可,相关决策包括我们的投票偏好,是否要让车辆为了避让小狗而偏离道路,或者教室里的访客是否对孩子构成了威胁

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2024年04月10日 0

暂无评论

推荐阅读
BD8Mqa3Ktdyv