编者按:本文首次出现在《Spektrum der Wissenschaft》(《大众科学》的姊妹刊物)上,标题为“Digitale Demokratie statt Datendiktatur”。
“启蒙运动是人类摆脱自我强加的不成熟状态。不成熟是指在没有他人指导的情况下无法运用自己的理解力。”
——伊曼努尔·康德,《什么是启蒙运动?》(1784)
关于支持科学新闻业
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保未来能够继续讲述关于塑造我们当今世界的发现和思想的有影响力的故事。
数字革命正在如火如荼地进行。它将如何改变我们的世界?我们产生的数据量每年翻一番。换句话说:2016年,我们产生的数据量相当于人类有史以来到2015年为止产生的数据量总和。每分钟,我们产生数十万次的谷歌搜索和Facebook帖子。这些内容包含的信息揭示了我们的思考和感受。很快,我们周围的事物,甚至可能是我们的衣服,也将与互联网连接起来。据估计,10年后,将有1500亿个联网测量传感器,是地球上人口的20倍。届时,数据量将每12小时翻一番。许多公司已经在尝试将这些大数据转化为巨额财富。
一切都将变得智能化;很快我们将不仅拥有智能手机,还将拥有智能家居、智能工厂和智能城市。我们是否也应该期待这些发展会带来智能国家和更智能的地球?
人工智能领域确实正在取得惊人的进步。特别是,它正在为数据分析的自动化做出贡献。人工智能不再逐行编程,而是现在能够学习,从而不断发展自身。最近,谷歌的DeepMind算法自学了如何赢得49个Atari游戏。算法现在可以像人类一样出色地识别手写语言和模式,甚至在某些任务中比人类做得更好。它们能够描述照片和视频的内容。如今,70%的金融交易是由算法完成的。新闻内容也在部分程度上自动生成。这一切都具有 радикальные 经济后果:在未来10到20年内,今天大约一半的工作岗位将受到算法的威胁。今天排名前500强的公司中,有40%将在十年内消失。
可以预见的是,超级计算机很快将在几乎所有领域超越人类的能力——大约在2020年到2060年之间。专家们开始敲响警钟。技术远见家,如特斯拉汽车的埃隆·马斯克、微软的比尔·盖茨和苹果联合创始人史蒂夫·沃兹尼亚克,都在警告说,超级智能对人类来说是一个严重的危险,可能比核武器更危险。
这是危言耸听吗?
有一点是明确的:我们组织经济和社会的方式将发生根本性的变化。我们正在经历自第二次世界大战结束以来最大的转型;继生产自动化和自动驾驶汽车的创造之后,社会自动化即将到来。由此,社会正处于一个十字路口,这既带来了巨大的机遇,也带来了相当大的风险。如果我们做出错误的决定,可能会威胁到我们最伟大的历史成就。
在20世纪40年代,美国数学家诺伯特·维纳(1894-1964)发明了控制论。根据他的说法,系统的行为可以通过适当的反馈手段来控制。很快,一些研究人员设想根据这一基本原则来控制经济和社会,但当时必要的技术尚不可用。
今天,新加坡被视为数据控制社会的完美典范。最初旨在保护公民免受恐怖主义侵害的项目最终影响了经济和移民政策、房地产市场和学校课程。中国正在采取类似的路线。最近,百度(中国的谷歌)邀请军方参与中国大脑计划。该计划涉及在其用户收集的搜索引擎数据上运行所谓的深度学习算法。除此之外,还计划进行某种形式的社会控制。据最近的报道,每位中国公民都将获得所谓的“公民评分”,这将决定他们在什么条件下可以获得贷款、工作或前往其他国家的旅行签证。这种个人监控将包括人们的互联网冲浪和社交联系人的行为(参见“聚焦中国”)。
随着消费者面临越来越频繁的信用检查,以及一些在线商店尝试个性化定价,我们在西方也走在类似的道路上。我们也越来越清楚地意识到,我们都处于机构监控的焦点之下。这一点在2015年英国军情五处的“卡玛警察”计划的细节公开时被揭露,该计划显示了对每个人互联网使用的全面筛查。老大哥现在要变成现实了吗?
程序化社会,程序化公民
一切都始于相当无害。搜索引擎和推荐平台开始为我们提供个性化的产品和服务建议。这些信息基于从之前的搜索、购买和出行行为以及社交互动中收集到的个人和元数据。虽然官方上用户的身份受到保护,但在实践中,它可以很容易地被推断出来。如今,算法非常清楚我们做什么、想什么和感受什么——甚至可能比我们的朋友和家人,甚至我们自己更清楚。通常,我们得到的推荐非常合适,以至于由此产生的决定感觉好像是我们自己的决定,即使它们实际上不是我们的决定。事实上,我们正以这种方式越来越成功地被远程控制。关于我们知道的越多,我们的选择就越不可能自由,而不是由他人预先决定的。
但这不会止步于此。一些软件平台正在转向“说服性计算”。未来,利用复杂的操纵技术,这些平台将能够引导我们完成整个行动过程,无论是执行复杂的工作流程,还是为互联网平台生成免费内容,而企业从中赚取数十亿美元。趋势是从编程计算机到编程人类。
这些技术在政治领域也变得越来越流行。在“助推”的标签下,并且大规模地,政府正试图通过“助推”——一种现代形式的家长式作风——引导公民走向更健康或更环保的行为。新的、关怀型的政府不仅对我们做什么感兴趣,还想确保我们做它认为正确的事情。神奇的短语是“大数据助推”,它是大数据与助推的结合。在许多人看来,这似乎是一种数字权杖,可以让人有效地统治大众,而无需让公民参与民主进程。这能否克服既得利益并优化世界进程?如果是这样,那么公民就可以由数据赋能的“贤明国王”统治,他几乎可以用数字魔杖产生期望的经济和社会结果。
预先编程的灾难
但看一下相关的科学文献就会发现,从“优化”的意义上来说,控制舆论的尝试注定会失败,因为问题太复杂了。舆论形成的动态充满了意外。没有人知道数字魔杖,也就是操纵性的助推技术,应该如何最好地使用。什么是正确或错误的措施,往往只有事后才显而易见。例如,在2009年德国猪流感流行期间,每个人都被鼓励去接种疫苗。然而,我们现在知道,一定比例的接种疫苗的人受到了一种不寻常的疾病——嗜睡症的影响。幸运的是,选择接种疫苗的人没有更多!
另一个例子是最近健康保险提供商试图通过发放智能健身手环来鼓励增加运动量,目的是减少人群中的心血管疾病;但最终,这可能会导致更多的髋关节手术。在像社会这样的复杂系统中,一个领域的改善几乎不可避免地会导致另一个领域的恶化。因此,大规模的干预有时可能被证明是巨大的错误。
无论如何,罪犯、恐怖分子和极端分子迟早会设法控制数字魔杖——甚至可能在我们没有注意到的情况下。几乎所有公司和机构都已被黑客入侵,甚至包括五角大楼、白宫和国家安全局。
当缺乏足够的透明度和民主控制时,还会出现另一个问题:系统从内部受到侵蚀。搜索算法和推荐系统可以被影响。公司可以竞标某些词语组合以获得更有利的结果。政府也可能能够影响结果。在选举期间,他们可能会引导未决定的选民支持他们——这种操纵将很难被发现。因此,谁控制了这项技术,谁就可以赢得选举——通过助推自己上台。
在许多国家,单一搜索引擎或社交媒体平台占据主导市场份额,这加剧了这个问题。它可以决定性地影响公众并远程干预这些国家。即使欧洲法院于2015年10月6日作出的判决限制了欧洲数据的无限制出口,但根本问题在欧洲境内仍未解决,在其他地方更是如此。
我们可以预期哪些不良副作用?为了使操纵不被察觉,它需要所谓的共鸣效应——足够为每个人定制的建议。通过这种方式,局部趋势通过重复逐渐加强,一直导致“过滤器气泡”或“回音室效应”:最终,您可能得到的所有信息都是您自己意见的反映。这会导致社会两极分化,导致形成不再相互理解并发现自己越来越相互冲突的独立群体。通过这种方式,个性化信息可能会在无意中破坏社会凝聚力。目前在美国政治中可以观察到这一点,民主党人和共和党人之间的分歧越来越大,以至于政治妥协几乎变得不可能。结果是社会的分裂,甚至可能是解体。
由于共鸣效应,社会舆论的大规模改变只能缓慢而逐渐地产生。影响会滞后出现,而且也不容易撤销。例如,对少数族裔或移民的怨恨可能会失控;过多的民族主义情绪可能会导致歧视、极端主义和冲突。
也许更重要的是,操纵方法改变了我们做出决定的方式。它们至少暂时地推翻了原本相关的文化和社会线索。总而言之,大规模使用操纵方法可能会造成严重的社会损害,包括数字世界中行为的野蛮化。谁应该对此负责?
法律问题
这引发了法律问题,鉴于过去几年对烟草公司、银行、IT和汽车公司处以巨额罚款,这些问题不应被忽视。但是,如果存在违法行为,哪些法律可能被违反了?首先,很明显,操纵技术限制了选择自由。如果我们对我们行为的远程控制能够完美地工作,我们本质上将成为数字奴隶,因为我们将只执行实际上是其他人预先做出的决定。当然,操纵技术只是部分有效。尽管如此,我们的自由正在缓慢但肯定地消失——事实上,消失得足够缓慢,以至于到目前为止,民众几乎没有抵抗。
伟大的启蒙思想家伊曼努尔·康德的见解似乎在这里非常相关。其中,他指出,试图决定公民幸福的国家是暴君。然而,个人自我发展的权利只能由那些能够控制自己生活的人行使,这预设了信息自决权。这关系到我们最重要的宪法权利。除非这些权利得到尊重,否则民主制度就无法良好运作。如果这些权利受到限制,这将破坏我们的宪法、我们的社会和国家。
由于像大数据助推这样的操纵技术的功能与个性化广告类似,因此其他法律也受到影响。广告必须标明为广告,并且不得具有误导性。它们也不允许利用某些心理技巧,例如阈下刺激。这就是为什么禁止在电影中以一闪而过的时间显示软饮料,因为这样广告就不会被有意识地感知到,但它可能仍然具有潜意识的影响。此外,当前广泛收集和处理个人数据的行为当然与欧洲国家和其他地方适用的数据保护法不符。
最后,个性化定价的合法性值得怀疑,因为它可能是滥用内幕信息。其他相关方面是可能违反平等和不歧视原则,以及违反竞争法,因为自由市场准入和价格透明度不再得到保证。这种情况类似于企业在其他国家以更低的价格销售其产品,但试图阻止通过这些国家购买。过去,此类案件已导致高额惩罚性罚款。
个性化广告和定价不能与传统广告或折扣券相提并论,因为后者是非特定的,也没有侵犯我们的隐私,其目的是利用我们的心理弱点并击溃我们的批判性思维。
此外,我们不要忘记,在学术界,即使是无害的决策实验也被认为是人体实验,必须经过公众问责的伦理委员会的批准。在每种情况下,相关人员都需要给出知情同意。相比之下,单击一下以确认我们同意一百页“使用条款”协议的内容(这在当今许多信息平台上都是如此)是远远不够的。
尽管如此,操纵技术(如助推)的实验正在数百万人身上进行,没有告知他们,没有透明度,也没有道德约束。即使是像Facebook这样的大型社交网络或像OkCupid这样的在线约会平台也已经公开承认进行过这类社会实验。如果我们想避免对人类和社会进行不负责任的研究(想想心理学家最近参与的酷刑丑闻),那么我们迫切需要施加高标准,特别是科学质量标准和类似于希波克拉底誓言的行为准则。我们的思想、我们的自由、我们的民主制度是否已被黑客入侵?
让我们假设存在一台具有神一般的知识和超人能力的超级智能机器:我们会听从它的指示吗?这似乎是可能的。但如果我们这样做,那么埃隆·马斯克、比尔·盖茨、史蒂夫·沃兹尼亚克、斯蒂芬·霍金等人表达的警告就会成真:计算机将控制世界。我们必须清楚,超级智能也可能犯错、撒谎、追求自私的利益或被操纵。最重要的是,它无法与全体人口的分布式集体智慧相提并论。
用计算机集群取代所有公民的思考的想法是荒谬的,因为这将大大降低可实现解决方案的多样性和质量。已经很明显,尽管最近数据激增和个性化信息的使用,世界问题并没有减少——恰恰相反!世界和平是脆弱的。气候的长期变化可能导致自恐龙灭绝以来最大的物种灭绝。我们也远未克服金融危机及其对经济的影响。据估计,网络犯罪每年造成3万亿美元的损失。国家和恐怖分子正在为网络战做准备。
在一个瞬息万变的世界中,超级智能永远无法做出完美的决定(见图1):系统复杂性增长速度快于数据量,而数据量增长速度快于处理它们的能力,并且数据传输速率受到限制。这导致无视对达成良好解决方案很重要的当地知识和事实。分布式、本地控制方法通常优于集中式方法,尤其是在行为高度可变、难以预测且无法实时优化的复杂系统中。这对于城市交通控制来说已经是真的,但对于我们高度联网的全球化世界的社会和经济系统来说更是如此。
此外,强大的算法操纵决策存在破坏“集体智慧”基础的危险,“集体智慧”可以灵活地适应我们复杂世界的挑战。为了使集体智慧发挥作用,个人的信息搜索和决策必须独立进行。然而,如果我们的判断和决定是由算法预先决定的,那么这确实会导致对人民的洗脑。智能生物被降级为仅仅是命令的接收者,他们自动响应刺激。
换句话说:个性化信息在我们周围建立了一个“过滤器气泡”,一种数字思维监狱。在这种条件下,创造力和“跳出框框”的思考怎么可能实现?最终,使用超级智能信息系统对行为和社会进行集中式技术官僚控制的系统将导致一种新型的独裁统治。因此,在“自由家长式作风”旗帜下的自上而下的控制型社会,原则上只不过是一个带有玫瑰色外衣的极权主义政权。
事实上,大数据助推旨在使许多人的行为保持一致,并操纵他们的观点和决定。这使其进入了宣传和通过行为控制有针对性地削弱公民能力的领域。我们预计,从长远来看,后果将是致命的,尤其是在考虑到上述破坏文化的影响时。
一个更美好的数字社会是可能的
尽管全球竞争激烈,但民主国家明智的做法是不抛弃几个世纪以来的成就。与其他政治制度相比,西方民主国家的优势在于它们已经学会了应对多元化和多样性。现在他们只需要学习如何更好地利用它们。
未来,那些在商业、政府和公民之间达到健康平衡的国家将处于领先地位。这需要网络化思维和建立信息、创新、产品和服务“生态系统”。为了良好地运作,不仅要创造参与机会,还要支持多样性,这一点也很重要。因为没有办法确定最佳目标函数:我们应该优化人均国民生产总值还是可持续性?权力还是和平?幸福还是预期寿命?通常,什么是更好,只有事后才知道。通过允许追求各种不同的目标,多元化的社会能够更好地应对未来各种意想不到的挑战。
集中式、自上而下的控制是过去的解决方案,仅适用于低复杂度的系统。因此,联邦制和多数人决策是当前的解决方案。随着经济和文化的发展,社会复杂性将继续上升。因此,未来的解决方案是集体智慧。这意味着公民科学、众包和在线讨论平台是极为重要的新方法,可以提供更多的知识、想法和资源。
集体智慧需要高度的多样性。然而,今天个性化的信息系统正在减少这种多样性,这些系统强化了趋势。
社会多样性与生物多样性一样重要。它不仅促进了集体智慧和创新,还促进了韧性——我们社会应对意外冲击的能力。减少社会多样性通常也会降低经济和社会的功能和绩效。这就是为什么极权主义政权经常与邻国发生冲突的原因。典型的长期后果是政治不稳定和战争,这在历史上一次又一次地发生。
总而言之,可以说我们现在正处于一个十字路口(见图2)。大数据、人工智能、控制论和行为经济学正在塑造我们的社会——无论好坏。如果如此广泛的技术与我们社会的核心价值观不相容,迟早会造成广泛的损害。它们可能导致具有极权主义特征的自动化社会。在最坏的情况下,集中式人工智能将控制我们所知道的、我们所想的和我们所做的。我们正处于历史性的时刻,我们必须决定正确的道路——一条让我们所有人都能从数字革命中受益的道路。因此,我们敦促遵守以下基本原则
1. 逐步下放信息系统的功能;
2. 支持信息自决和参与;
3. 提高透明度,以实现更大的信任;
4. 减少信息的扭曲和污染;
5. 启用用户控制的信息过滤器;
6. 支持社会和经济多样性;
7. 改进互操作性和协作机会;
8. 创建数字助理和协调工具;
9. 支持集体智慧,以及
10. 通过数字素养和启蒙运动,促进公民在数字世界中的负责任行为。
遵循这一数字议程,我们所有人都将从数字革命的成果中受益:经济、政府和公民都将如此。我们还在等什么?
数字时代的战略
大数据和人工智能无疑是重要的创新。它们具有巨大的潜力,可以促进经济价值和社会进步,从个性化医疗保健到可持续城市。然而,利用这些技术削弱公民的能力是完全不可接受的。大数据助推和公民评分滥用集中收集的个人数据进行行为控制,其本质是极权主义的。这不仅与人权和民主原则不相容,而且也不适合管理现代创新型社会。为了解决世界面临的真正问题,需要在信息和风险管理领域采取更好的方法。负责任的创新研究领域和“为了人类的数据”倡议(参见“为了社会和人类利益的大数据”)为如何为社会利益使用大数据和人工智能提供了指导。
我们现在可以做什么?首先,即使在数字革命时代,公民的基本权利也应受到保护,因为它们是现代功能完善的民主社会的基本前提。这需要建立一个新的社会契约,该契约基于信任与合作,将公民和客户视为合作伙伴,而不是障碍或可剥削的资源。为此,国家将必须提供适当的监管框架,以确保技术的设计和使用方式与民主制度相容。这将必须保证信息自决权,不仅在理论上,而且在实践中也是如此,因为这是我们以自我决定和负责任的方式过上生活的前提。
还应该有权获得关于我们收集的个人数据的副本。应该通过法律规定,这些信息必须以标准化格式自动发送到个人数据存储库,个人可以通过该存储库管理其数据的使用(可能由特定的基于人工智能的数字助理支持)。为了确保更大的隐私并防止歧视,未经授权使用数据应受到法律惩罚。然后,个人将能够决定谁可以使用他们的信息、用于什么目的以及使用多长时间。此外,应采取适当措施,确保数据得到安全存储和交换。
考虑到多个标准的复杂声誉系统可以帮助提高我们决策所依据的信息质量。如果数据过滤器以及推荐和搜索算法可以由用户选择和配置,我们可以从多个角度看待问题,并且我们不太容易受到扭曲信息的操纵。
此外,我们需要为公民建立有效的投诉程序,以及对违反规则的行为进行有效制裁。最后,为了建立足够的透明度和信任,领先的科研机构应充当目前逃避民主控制的数据和算法的受托人。这也需要适当的行为准则,至少任何可以访问敏感数据和算法的人都必须遵守该准则——一种针对IT专业人员的希波克拉底誓言。
此外,我们需要一项数字议程,为新的就业机会和数字社会的未来奠定基础。每年,我们都会在农业部门和公共基础设施、学校和大学投入数十亿美元——这有利于工业和服务业。
因此,我们需要哪些公共系统来确保数字社会取得成功?首先,需要全新的教育理念。这应该更多地关注批判性思维、创造力、创造性和创业精神,而不是培养标准化工人(他们的任务在未来将由机器人和计算机算法完成)。教育还应提供对数字技术的负责任和批判性使用的理解,因为公民必须意识到数字世界是如何与物理世界交织在一起的。为了有效和负责任地行使他们的权利,公民必须了解这些技术,以及哪些用途是不合法的。这就是为什么科学、工业、政治和教育机构比以往任何时候都更需要广泛普及这些知识。
其次,需要一个参与式平台,使人们更容易成为个体经营者,建立自己的项目,寻找合作伙伴,在全球范围内销售产品和服务,管理资源并缴纳税款和社会保障金(一种面向所有人的共享经济)。为了补充这一点,城镇甚至乡村都可以建立新兴数字社区中心(如创客实验室),在那里可以免费共同开发和测试想法。由于在这些中心发现的开放和创新方法,大规模的协作创新可以得到促进。
特定类型的竞赛可以为创新提供额外的激励,帮助提高公众知名度,并为参与式数字社会创造势头。它们在动员公民社会以确保为解决全球问题做出本地贡献方面特别有用(例如,通过“气候奥运会”)。例如,旨在协调稀缺资源的平台可以帮助释放循环和共享经济的巨大潜力,而这些潜力在很大程度上仍未得到开发。
通过对开放数据战略的承诺,政府和产业界将越来越多地向科学界和公众开放数据,为高效的信息和创新生态系统创造合适的条件,使其与我们世界的挑战保持同步。这可以通过减税来鼓励,就像某些国家为使用环保技术而提供的减税一样。
第三,建立由公民运行的“数字神经系统”可以为每个人打开物联网的新机遇,并提供所有人都可以使用的实时数据测量。如果我们想以更可持续的方式利用资源并减缓气候变化,我们需要衡量我们与他人和环境互动的正面和负面影响。通过使用适当的反馈循环,可以以这样一种方式影响系统,使其通过自组织来实现期望的结果。
为了使之成功,我们需要各种激励和交换系统,所有经济、政治和社会创新者都可以使用。这可以创造全新的市场,并因此也为新的繁荣奠定基础。多元化的金融体系(例如,功能差异化的货币)和新的发明报酬法规将极大地促进数字经济的几乎无限的潜力。
为了更好地应对我们未来世界的复杂性和多样性,并将其转化为优势,我们将需要个人数字助理。这些数字助理也将受益于人工智能领域的发展。未来,可以预期,根据需要,将灵活地构建和重新配置大量结合人类和人工智能的网络。然而,为了使我们能够保留对我们生活的控制权,这些网络应该以分布式方式进行控制。特别是,人们还必须能够根据需要登录和注销。
民主平台
“文化维基百科”最终可以帮助协调高度多样化世界中的各种活动,并使它们彼此兼容。它将使世界文化的绝大多数隐性成功原则显性化,以便可以将它们以新的方式组合起来。像这样的“文化基因组计划”也将是一种和平项目,因为它将提高公众对社会文化多样性价值的认识。全球公司早就知道,文化多元化和多学科的团队比同质化的团队更成功。然而,在许多地方仍然缺少有效地整理来自大量人员的知识和想法以创造集体智慧所需的框架。为了改变这一点,提供在线审议平台将非常有用。它们还可以创建实现升级的数字民主制度所需的框架,为公民提供更大的参与机会。这很重要,因为当今世界面临的许多问题只能通过公民社会的贡献来解决。
延伸阅读
ACLU:奥威尔式公民评分,中国的信用评分系统,是对美国人的警告,http://www.computerworld.com/article/2990203/security/aclu-orwellian-citizen-score-chinas-credit-score-system-is-a-warning-for-americans.html
大数据,遇见老大哥:中国发明了数字极权主义国家。其社会信用项目的令人担忧的含义。《经济学人》(2016年12月17日)。
哈里斯,S. 社会实验室,《外交政策》(2014年7月29日),http://foreignpolicy.com/2014/07/29/the-social-laboratory/
童,V.J.C. 预测人们如何思考和行为,《国际创新》,http://www.internationalinnovation.com/predicting-how-people-think-and-behave/
Volodymyr, M., Kavukcuoglu, K., Silver, D., et al.: 通过深度强化学习实现人类水平的控制。载于:《自然》,518,S. 529-533,2015。
Frey, B. S. 和 Gallus, J.: 有益的和剥削性的助推。载于:欧洲法学学术中的法律经济分析。施普林格出版社,2015年。
Gigerenzer, G.: 关于自由意志家长主义的所谓证据。载于:《哲学与心理学评论》6(3),页码 361-383,2015年。
Grassegger, H. 和 Krogerus, M. 我只是表明炸弹是存在的 [I have only shown the bomb exists]。 《Das Magazin》(2016年12月3日)https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/
Hafen, E., Kossmann, D. 和 Brand, A.: 健康数据合作社——公民赋权。载于:《医学信息方法》53(2),页码 82–86,2014年。
Helbing, D.: 社会自动化即将来临:如何在数字革命中生存。CreateSpace出版社,2015年。
Helbing, D.: 前瞻性思考——关于大数据、数字革命和参与式市场社会的论文集。施普林格出版社,2015年。
Helbing, D. 和 Pournaras, E.: 构建数字民主。载于:《自然》527,页码 33-34,2015年。
van den Hoven, J., Vermaas, P.E. 和 van den Poel, I.: 伦理学、价值观和技术设计手册。施普林格出版社,2015年。
Zicari, R. 和 Zwitter, A.: 为了人类的数据:一封公开信。法兰克福大数据实验室,2015年7月13日。 Zwitter, A.: 大数据伦理。载于:《大数据与社会》1(2),2014年。

图 1: 数字增长。来源:Dirk Helbing
感谢大数据,我们现在可以做出更好、基于证据的决策。然而,自上而下的控制原则越来越失效,因为随着我们不断将世界网络化,社会的复杂性呈爆炸式增长。分布式控制方法将变得越来越重要。只有通过集体智慧,才有可能找到适当的解决方案来应对我们世界的复杂性挑战。

图 2: 数字十字路口。来源:Dirk Helbing
我们的社会正处于十字路口:如果越来越强大的算法被少数决策者控制,并削弱我们的自主性,我们将倒退到封建主义 2.0,重要的历史成就将丧失。然而,现在我们有机会选择通往数字民主或民主 2.0 的道路,这将使我们所有人受益(另见 https://vimeo.com/147442522 )。
聚焦中国:这就是社会未来的样子吗?
行为和社会控制将如何影响我们的生活?公民评分的概念,目前正在中国实施,给出了一个想法。在那里,所有公民都在一个一维排名尺度上进行评分。他们所做的一切都会给出加分或减分。这不仅针对大规模监控。分数取决于个人在互联网上的点击和他们政治上是否正确的行为,它决定了他们的信贷条款、他们获得某些工作的机会以及旅行签证。因此,公民评分是关于行为和社会控制。甚至朋友和熟人的行为也会影响这个分数,即宗族连坐的原则也被应用:每个人都同时成为美德的守护者和一种窥探情报的线人;非正统的思想家被孤立。如果类似的原则在民主国家传播,那么最终无论是国家还是有影响力的公司制定规则,都将无关紧要。在这两种情况下,民主的支柱都将受到直接威胁。
追踪和测量所有留下数字痕迹的活动将创造一个“裸体”公民,他们的人格尊严和隐私将逐渐被 degradation(贬低/退化)。
决策将不再自由,因为从政府或公司定义积分系统标准的角度来看,错误的选择会产生负面后果。个人的自主权原则上将被废除。
每个小错误都会受到惩罚,没有人会是清白的。无罪推定原则将变得过时。预测性警务甚至可能导致对尚未发生但仅仅是预期会发生的违规行为进行惩罚。
由于底层算法无法完全无错误地运行,公平和正义的原则将被一种新的任意性所取代,人们几乎无法为自己辩护。
如果个人目标是外部设定的,那么个人自我发展的可能性将被消除,从而民主多元化也将被消除。
当地文化和社会规范将不再是适当的、情境依赖行为的基础。
用一维目标函数控制社会将导致更多冲突,因此会导致安全丧失。人们将不得不预期严重的动荡,正如我们在金融系统中看到的那样。
这样控制社会将使社会从有责任感的公民转向作为下属的个人,导致封建主义 2.0。这与民主价值观截然相反。因此,现在是启蒙运动 2.0 的时候了,它将融入基于数字自决的民主 2.0。这需要民主技术:与民主原则兼容的信息系统——否则它们将摧毁我们的社会。
“大数据助推”——不适合解决问题
拥有大量数据的人可以巧妙地操纵人们。但即使是仁慈的决策者也可能弊大于利,Dirk Helbing 说。
助推的支持者认为,人们不会做出最优决策,因此有必要帮助他们。这种思维流派被称为家长式作风。然而,助推并没有选择告知和说服人们的方式。它而是利用心理弱点来引导我们做出某些行为,也就是说,我们被欺骗了。这种方法背后的科学方法被称为“行为主义”,实际上早已过时。
几十年前,伯尔赫斯·弗雷德里克·斯金纳通过奖励和惩罚(例如,通过喂食或施加痛苦的电击)来训练老鼠、鸽子和狗。今天,人们试图以类似的方式训练人。我们不是生活在斯金纳箱中,而是生活在“过滤器气泡”中:通过个性化的信息,我们的思维正在被引导。通过个性化的价格,我们甚至可能因(不)希望的互联网点击而受到惩罚或奖励。因此,助推与大数据的结合导致了一种新的助推形式,我们可以称之为“大数据助推”。关于我们的个人信息越来越多,这些信息通常是在未经我们同意的情况下收集的,揭示了我们的想法、感受以及如何被操纵。这种内幕信息被利用来操纵我们做出我们本来不会做出的选择,购买一些价格过高的产品或我们不需要的产品,或者可能将我们的选票投给某个政党。
然而,大数据助推不适合解决我们的许多问题。对于我们世界的复杂性相关挑战尤其如此。尽管已经有 90 个国家使用助推,但它并没有减少我们的社会问题——恰恰相反。全球变暖正在加剧。世界和平脆弱,恐怖主义正在抬头。网络犯罪爆炸式增长,经济和债务危机在许多国家也没有得到解决。
对于金融市场的低效,也没有解决方案,正如助推大师理查德·塞勒最近承认的那样。他认为,如果国家控制金融市场,反而会加剧问题。但是,为什么要以自上而下的方式控制我们的社会呢?社会比金融市场还要复杂。社会不是机器,复杂的系统不能像汽车一样被操控。这可以通过讨论另一个复杂系统来理解:我们的身体。要治愈疾病,需要在正确的时间以正确的剂量服用正确的药物。许多治疗方法也有严重的副作用和相互作用。当然,预计大数据助推对社会干预也会如此。通常事先不清楚什么对社会有利或有害。心理学中 60% 的科学结果是无法重复的。因此,大数据助推很可能会弊大于利。
此外,没有一种措施对所有人都有利。例如,在最近几十年中,我们看到食品建议一直在变化。许多人也患有食物不耐受症,甚至可能是致命的。现在,人们对某些类型的癌症和其他疾病的大规模筛查持相当批判的态度,因为错误诊断的副作用往往大于益处。因此,如果决定使用大数据助推,那么坚实的科学基础、透明度、伦理评估和民主控制将至关重要。所采取的措施必须保证统计上显着的改进,并且副作用必须是可以接受的。用户应该被告知这些副作用(类似于医疗说明书),并且接受治疗的人必须有最终决定权。
此外,对整个人口采用相同的措施是不好的。但是,对于采取适当的个人措施知之甚少。社会不仅要应用不同的治疗方法以保持多样性,而且相关性(关于在什么特定情况下采取什么措施)也很重要。对于社会的运作,至关重要的是人们应用不同的角色,这些角色适合他们所处的各自情况。大数据助推远未能够实现这一点。
当前基于大数据的个性化反而会产生新的问题,例如歧视。例如,如果我们使健康保险费率取决于某些饮食习惯,那么犹太人、穆斯林和基督徒、妇女和男人将不得不支付不同的费率。因此,出现了一系列新问题。
因此,理查德·塞勒不厌其烦地强调,助推应该只以有益的方式使用。作为如何使用助推的一个主要例子,他提到了基于 GPS 的路线引导系统。然而,这是由用户打开和关闭的。用户还指定了各自的目标。然后,数字助手提供几种备选方案,用户可以在其中自由选择。之后,数字助手会尽其所能支持用户实现目标并做出更好的决策。这当然是改善人们行为的正确方法,但是今天大数据助推的精神与此截然不同。
通过“复制权”实现数字自决
作者:Ernst Hafen
欧洲必须保障公民拥有所有关于他们的数据的数字副本的权利(复制权),Ernst Hafen 说。迈向数据民主的第一步是建立个人数据合作银行,这些银行由公民而非企业股东拥有。
医学可以从健康数据中获益。然而,对个人数据的访问必须由个人(数据主体)自己控制。“复制权”构成了这种控制的基础。
在欧洲,我们喜欢指出我们生活在自由、民主的社会中。然而,我们几乎不自觉地依赖于跨国数据公司,我们用自己的数据为他们的免费服务付费。个人数据——现在有时被称为“新的资产类别”或 21 世纪的石油——备受追捧。然而,到目前为止,还没有人设法从个人数据中提取最大用途,因为它存在于许多不同的数据集中。谷歌和 Facebook 可能比我们的医生更了解我们的健康状况,但即使是这些公司也无法整理我们所有的数据,因为他们理所当然地无法访问我们的病历、购物收据或关于我们基因构成的的信息。与其他资产不同,数据可以以几乎零成本复制。每个人都应该有权获得其所有个人数据的副本。通过这种方式,他们可以控制其数据的使用和聚合,并自行决定是否允许朋友、另一位医生或科学界访问。
移动健康传感器和应用程序的出现意味着患者可以贡献重要的医学见解。通过在智能手机上记录他们的身体健康状况,例如医学指标和药物的副作用,他们提供了重要的数据,这些数据使得观察治疗方法的应用、评估健康技术以及普遍进行循证医学成为可能。让公民访问其数据副本并允许他们参与医学研究也是一种道德义务,因为它将拯救生命并使医疗保健更实惠。
欧洲国家应通过在其宪法中写入“复制权”来巩固公民的数字自决权,正如瑞士提出的那样。通过这种方式,公民可以使用他们的数据在全球数据经济中发挥积极作用。如果他们可以将数据副本存储在非营利性、公民控制的合作机构中,那么个人数据的很大一部分经济价值可以回归社会。合作机构将充当受托人来管理其成员的数据。这将导致个人数据市场的民主化和数字依赖的终结。
民主数字社会
必须允许公民积极参与
为了以负责任的方式应对未来的技术,我们每个人都必须能够参与决策过程,巴塞尔大学的Bruno S. Frey 认为。
如何有效地促进负责任的创新?如果塑造人际互动的制度或规则没有被设计为激励和使人们能够满足这些要求,那么对公众的呼吁几乎没有任何效果。
应考虑几种类型的制度。最重要的是,社会必须去中心化,遵循辅助性原则。三个维度很重要。
空间去中心化包括充满活力的联邦制。各省、地区和市镇必须被赋予充分的自主权。在很大程度上,他们必须能够设定自己的税率并管理自己的公共支出。
功能性去中心化根据公共支出的领域(例如教育、卫生、环境、供水、交通、文化等)也是可取的。这个概念是通过 FOCJ 的提议发展起来的,即“功能性、重叠和竞争性管辖区”。
政治去中心化涉及行政部门(政府)、立法部门(议会)和法院之间的权力划分。公共媒体和学术界应成为额外的支柱。
这些类型的去中心化在未来的数字社会中将继续具有重要意义。
此外,公民必须有机会通过全民公决直接参与特定问题的决策。在全民公决之前的讨论中,应提出所有相关论点并以有组织的方式陈述。应该比较关于如何解决特定问题的各种提议,并将范围缩小到那些似乎最有希望的提议,并在调解过程中尽可能地整合。最后,需要进行全民公决,以确定最适合当地情况的可行解决方案(可行性在于它在选民中享有广泛的支持)。
如今,在线审议工具可以有效地支持这些过程。这使得考虑更广泛和更多样化的想法和知识成为可能,利用“集体智慧”来产生更好的政策建议。
实施这十项建议的另一种方法是创建新的、非正统的制度。例如,可以强制每个官方机构都聘请一位“魔鬼代言人”。这位横向思维者将负责为每个提案开发反驳论据和替代方案。这将减少沿着“政治正确”路线思考的趋势,并且还将考虑解决问题的非常规方法。
另一种非正统的措施是从讨论过程中认为合理的备选方案中,使用随机决策机制进行选择。这种方法增加了非常规和通常被忽视的提案和想法被整合到未来数字社会中的机会。
Bruno S. Frey
Bruno Frey (* 1941) 是一位学术经济学家,也是巴塞尔大学的常任客座教授,他在那里指导经济与福祉研究中心 (CREW)。他还是苏黎世经济、管理和艺术研究中心 (CREMA) 的研究主任。
民主技术与负责任的创新
当技术决定我们如何看待世界时,就存在滥用和欺骗的威胁。因此,创新必须反映我们的价值观,Jeroen van den Hoven 认为。
德国最近被一场全球性的工业丑闻震惊。这一丑闻的曝光导致一家最大的汽车制造商的首席执行官辞职,消费者信心严重丧失,股价大幅下跌,并对整个汽车行业造成经济损失。甚至有人谈到对“德国制造”品牌造成严重损害。赔偿金将达数十亿欧元。
丑闻的背景是大众汽车和其他汽车制造商使用了操纵性软件,该软件可以检测车辆的环境合规性测试条件。该软件算法改变了发动机的行为,使其在测试条件下排放的污染物废气比正常情况下少。这样,它就欺骗了测试程序。排放的完全减少仅发生在测试期间,而不是在正常使用中。
在 21 世纪,我们迫切需要解决如何在技术上实施道德标准的问题。
同样,算法、计算机代码、软件、模型和数据将越来越多地决定我们在数字社会中看到什么,以及我们在健康保险、金融和政治方面的选择是什么。这给经济和社会带来了新的风险。特别是,存在欺骗的危险。
因此,重要的是要理解我们的价值观体现在我们创造的事物中。否则,未来的技术设计将决定我们社会的形态(“代码即法律”)。如果这些价值观是自私自利的、歧视性的或与自由和个人隐私的理想背道而驰的,这将损害我们的社会。因此,在 21 世纪,我们必须迫切解决如何在技术上实施道德标准的问题。这一挑战呼吁我们“为价值而设计”。
如果我们缺乏开发必要的技术工具、科学和制度来使数字世界与我们的共同价值观保持一致的动力,那么未来看起来将非常黯淡。值得庆幸的是,欧盟已对负责任的创新进行了广泛的研发计划投资。此外,通过《隆德宣言》和《罗马宣言》的欧盟国家强调,创新需要负责任地进行。除其他外,这意味着创新应 направлена на разработку( направлена на разработку - Russian, meaning directed at developing, I will translate to Chinese as “旨在开发”) 智能解决方案来解决社会问题,这些解决方案可以协调效率、安全性和可持续性等价值观。真正的创新不涉及欺骗人们相信他们的汽车是可持续和高效的。真正的创新意味着创造能够真正满足这些要求的技术。
数字风险素养
技术需要能够控制它的用户
与其让智能技术削弱我们的脑力,我们应该学会更好地控制它,Gerd Gigerenzer 说——从童年开始。
数字革命提供了令人印象深刻的可能性:数千个应用程序、物联网以及与世界的几乎永久连接。但在兴奋之中,一件事情很容易被遗忘:创新技术需要有能力的用户来控制它,而不是被它控制。
三个例子
我的一位博士生坐在他的电脑前,似乎全神贯注于撰写他的论文。与此同时,他的电子邮件收件箱整天都开着。他实际上是在等待被打断。通过查看他的写作流程,很容易识别出他在一天中被打断了多少次。
一位美国学生在开车时发短信
“当短信进来时,我必须看,无论如何。幸运的是,我的手机首先以弹出窗口的形式向我显示短信……所以我开车时不必看太多。” 如果以每小时 50 英里的速度,她只花 2 秒钟瞥一眼手机,她就“盲开”了 48 码。这位年轻女性正在冒着发生车祸的风险。她的智能手机已经控制了她的行为——德国也有 20% 到 30% 的人在开车时发短信,情况也是如此。
在 2014 年印度的议会选举中,这是世界上最大的民主选举,拥有超过 8 亿潜在选民,有三位主要候选人:N. Modi、A. Kejriwal 和 R. Ghandi。在一项研究中,未决选民可以使用互联网搜索引擎找到关于这些候选人的更多信息。然而,参与者不知道网页已被操纵:对于一组人,关于 Modi 的更多正面条目弹出在第一页,负面条目稍后出现。其他组对其他候选人经历了同样的情况。这种和类似的操纵程序在互联网上很常见。据估计,对于由于这种操纵而出现在第一页的候选人,他们从未决选民那里获得的选票数量增加了 20 个百分点。
在这些案例中的每一个案例中,人类行为都受到数字技术的控制。失去控制并不是什么新鲜事,但数字革命增加了这种情况发生的可能性。
我们能做什么?有三种相互竞争的愿景。一种是技术家长主义,它用算法取代(有缺陷的)人类判断。心神不宁的博士生可以继续阅读他的电子邮件并使用论文写作软件;他所需要做的就是输入关于该主题的关键信息。这种算法将通过使抄袭丑闻成为日常事件来解决抄袭丑闻这个令人恼火的问题。
尽管仍处于科幻领域,但在许多领域,人类判断已经被计算机程序所取代。例如,BabyConnect 应用程序跟踪婴儿的日常发育——身高、体重、哺乳次数、换尿布次数等等——而更新的应用程序将婴儿与实时数据库中其他用户的孩子进行比较。对于父母来说,他们的宝宝变成了一个数据向量,正常的差异通常会导致不必要的担忧。
第二种愿景被称为“助推”。与其让算法完成所有工作,不如将人们引导到特定的方向,通常是在他们不知情的情况下。印度选举的实验就是一个例子。我们知道谷歌搜索结果的第一页获得了大约 90% 的点击量,其中一半是前两个结果。通过操纵结果的顺序,使关于特定候选人或特定商业产品的正面结果出现在第一页,从而利用了对人类行为的这种了解。在像德国这样的网络搜索由一家搜索引擎(谷歌)主导的国家,这导致了左右选民的无限可能性。像技术家长主义一样,助推接管了舵。
但还有第三种可能性。我的愿景是风险素养,让人们具备控制媒体而不是被媒体控制的能力。一般来说,风险素养涉及以知情的方式处理与健康、金钱和现代技术等风险相关的领域。数字风险素养意味着能够利用数字技术,而不会变得依赖于数字技术或被数字技术操纵。这并不像听起来那么难。我的博士生后来学会了每天只打开三次他的电子邮件帐户,早上、中午和晚上,这样他就可以不受持续打断地撰写他的论文。
学习数字自控需要从儿童时期开始,在学校也要从父母树立的榜样中学习。一些家长式作风者可能会嘲笑这个想法,声称人类缺乏智慧和自律,永远无法成为风险素养者。但是,几个世纪前,人们也曾说过学习阅读和写作——现在工业国家的大多数人都可以做到这一点。以同样的方式,人们可以学会更明智地处理风险。为了实现这一目标,我们需要彻底反思策略,并将投资于人,而不是用智能技术取代或操纵他们。在 21 世纪,我们需要更少的家长式作风和助推,以及更多知情、批判性和精通风险的公民。现在是时候从技术手中夺回遥控器,将我们的生活掌握在自己手中了。
伦理:为了共同利益和人类的大数据
数据的力量可以用于好的和坏的目的。Roberto Zicari 和 Andrej Zwitter 制定了大数据伦理的五项原则。
作者:Andrej Zwitter 和 Roberto Zicari
最近,越来越多的声音——从埃隆·马斯克(特斯拉汽车公司)等科技远见卓识者,到比尔·盖茨(微软)和史蒂夫·沃兹尼亚克(苹果)——警告人工智能 (AI) 的危险。一份反对自动化武器系统的请愿书获得了 20 万人的签名,麻省理工学院最近发布的一封公开信呼吁对即将到来的数字社会采取新的、包容性的方法。
我们必须认识到,大数据与任何其他工具一样,可以用于好的和坏的目的。从这个意义上说,欧洲法院就人权理由反对安全港协议的决定是可以理解的。
国家、国际组织和私人行为者现在在各个领域使用大数据。所有从大数据中获利的人都意识到他们的道德责任非常重要。因此,为了传播大数据使用的道德行为准则,“为了人类的数据倡议”应运而生。该倡议提出了大数据用户的五项基本伦理原则
1. “不作恶”。每个人现在留下的数字足迹使个人、社会群体和整个社会在一定程度上暴露于透明度和脆弱性之中。那些可以访问大数据洞察力的人绝不能伤害第三方。
2. 确保以这样的方式使用数据,即结果将促进人类的和平共处。内容的选择和对数据的访问影响着社会的世界观。只有当数据科学家意识到他们有责任提供均匀和公正的数据访问时,和平共处才有可能。
3. 使用数据来帮助有需要的人。除了经济效益外,大数据领域的创新还可以创造额外的社会价值。在全球互联互通的时代,现在有可能创建创新的大数据工具,这些工具可以帮助支持有需要的人。
4. 使用数据来保护自然并减少环境污染。大数据分析的最大成就之一是高效流程和协同效应的开发。只有当这些方法也用于创造和维护健康稳定的自然环境时,大数据才能提供可持续的经济和社会未来。
5. 使用数据消除歧视和不容忍,并创建一个公平的社会共存体系。社交媒体创建了一个加强的社交网络。只有当它建立在公平、平等和正义的原则之上时,才能实现长期的全球稳定。
总而言之,我们还想提请注意大数据提供的新颖可能性如何带来更美好的未来:“随着越来越多的数据变得不那么昂贵,技术打破了获取和分析的障碍,为公民目的提供可操作信息的机会也随之增加。这可以被称为大数据的‘共同利益’挑战。”(Jake Porway,DataKind)。归根结底,重要的是将转向大数据理解为做好事的机会和对美好未来的希望。
测量、分析、优化:当智能机器接管社会控制时
在数字时代,机器已经在很大程度上控制着日常生活。因此,我们应该三思而后行,然后再分享我们的个人数据,专家Yvonne Hofstetter 说
如果诺伯特·维纳(Norbert Wiener,1894-1964)经历过数字时代,那么对他来说,这将是富饶之地。“控制论是信息和控制的科学,无论控制目标是机器还是生物体”,控制论的创始人曾在 1960 年在德国汉诺威解释道。在历史上,世界从未产生过像今天这样多的数据和信息。
控制论,一门声称具有普遍重要性的科学,提出了一个强有力的主张:“一切皆可被控制。” 在20世纪,美国军队和苏联都应用控制论来控制他们的军备竞赛。 北约部署了所谓的C3I系统(指挥、控制、通信和信息),这个术语指的是军事基础设施,其语言学渊源可以追溯到维纳于1948年出版的著作《控制论:或关于动物和机器的控制与通信》。 “控制”指的是对机器的控制,也包括对个人或整个社会系统(如军事联盟、金融市场,甚至指向21世纪的选民)的控制。 其主要前提是:保持对世界的监视以收集数据。 将人和物连接到万物互联是获取作为控制论控制策略输入的必要海量数据的完美方式。
维纳通过控制论提出了一个新的科学概念:闭环反馈。 反馈——例如我们给出的点赞、我们发表的在线评论——也是数字化的一个重要概念。 这是否意味着数字化是控制论最完美的实现? 当我们使用智能设备时,我们正在创建一个 непрерывный 数据流,泄露我们的意图、地理位置或社会环境。 当我们在网上进行比以往任何时候都更不经思考的交流时,在后台,一个人工智能生态系统正在演变。 今天,人工智能是唯一能够分析我们并得出关于我们未来行为结论的技术。
一种自动控制策略,通常是学习机器,分析我们的实际情况,然后计算出一种刺激,这种刺激应该引导我们更接近理想的“最佳”状态。 越来越多的此类控制器支配着我们的日常生活。 作为数字助理,它们帮助我们在浩如烟海的选择和令人望而生畏的不确定性中做出决策。 甚至谷歌搜索也是一种控制策略。 当输入关键词时,用户会透露他的意图。 反过来,谷歌搜索引擎不仅会呈现最佳搜索结果列表,还会呈现一个链接列表,这个列表更多地体现了对公司而非用户而言最高的(经济)价值。 谷歌通过这种方式,即在搜索结果的最顶端列出企业产品,来控制用户的下一次点击。 欧盟认为,这是一种滥用。
但是有什么出路吗? 是的,如果我们断开与控制论循环的连接。 只要停止响应数字刺激即可。 如果可控的对应物跳出循环,控制论就会失效。 然而,我们有自由不回应数字控制器。 但是,随着数字化的进一步升级,很快我们可能就别无选择了。 因此,我们被呼吁为我们的自由权利而战——在数字时代,尤其是在智能机器兴起之际,重新战斗。
对于诺伯特·维纳(Norbert Wiener,1894-1964)来说,数字时代将是一个天堂。 “控制论是关于信息和控制的科学,无论被控制的是机器还是生物体,”这位控制论的创始人曾在1960年于德国汉诺威说过。
控制论,一门声称具有普遍重要性的科学,做出了一个强有力的承诺:“一切都是可控的。” 在20世纪,美国军队和苏联都应用控制论来控制军备竞赛。 北约部署了所谓的C3I系统(指挥、控制、通信和信息),这个术语指的是军事基础设施,其语言学渊源可以追溯到维纳于1948年出版的著作,书名为《控制论:或关于动物和机器的控制与通信》。 “控制”指的是对机器的控制,也包括对个人或整个社会系统(如军事联盟、北约和华沙条约组织)的控制。 它的基本要求是:整合、收集数据和沟通。 将人和物连接到万物互联是获取作为控制论控制策略输入的必要数据的完美方式。
控制论提出了一种新的科学概念:闭环反馈。 反馈——例如我们给出的点赞或我们发表的在线评论——是与数字化相关的另一个重要概念。 这是否意味着数字化是控制论最完美的实现? 当我们使用智能设备时,我们创建了一个 непрерывный 数据流,泄露我们的意图、地理位置或社会环境。 当我们在网上进行比以往任何时候都更不经思考的交流时,在后台,一个人工智能(AI)生态系统正在演变。 今天,人工智能是唯一能够分析我们并得出关于我们未来行为结论的技术。
一种自动化控制策略,通常是学习机器,分析我们当前的状态,并计算出一种刺激,这种刺激应该引导我们更接近理想的“最佳”状态。 越来越多的此类控制器支配着我们的日常生活。 这些数字助理帮助我们在浩如烟海的选择和令人望而生畏的不确定性中做出决策。 甚至谷歌搜索也是一种控制策略。 当输入关键词时,用户会透露他的意图。 反过来,谷歌搜索引擎不仅会呈现最佳搜索结果的列表,还会呈现一个链接列表,这个列表是根据其对公司而非用户的(经济)价值排序的。 通过在搜索结果的最顶端列出企业产品,谷歌控制了用户的下一次点击。 欧盟认为,这是对谷歌垄断地位的滥用。
但是有什么出路吗? 是的,如果我们断开与控制论循环的连接,并简单地停止响应数字刺激。 如果可控的对应物跳出循环,控制论就会失效。 即使这很困难,我们也应该对我们的数据保持谨慎和节俭。 然而,随着数字化的进一步升级,很快可能就没有更多的选择了。 因此,我们被呼吁再次为我们在数字时代的自由而战,特别是要对抗智能机器的兴起。