国家治理杂志周刊
国家治理杂志周刊
国家治理周刊很厉害。《国家治理》周刊为我国首家以治理为主题的主流期刊,是贯彻落实十八届三中全会精神的重要载体,以对地方治理体系、治理能力、治理实效的调查评价为主要内容,以民智市场调查公司(人民论坛问卷调查中心)和人民论坛理论研究中心为依托,突出调查、评价、服务三大特色,突破传统纸媒的概念和内涵,成为具有全新办刊理念、全新商业模式的智库型现代全媒体。
北京《国家治理》周刊杂志社怎么样?
北京《国家治理》周刊杂志社是1992-12-16在北京市朝阳区注册成立的全民所有制,注册地址位于北京市朝阳区金台西路2号。
北京《国家治理》周刊杂志社的统一社会信用代码/注册号是911101051017571175,企业法人贾立政,目前企业处于开业状态。
北京《国家治理》周刊杂志社的经营范围是:出版《国家治理》杂志(发行出版许可证有效期至2018年12月31日);文化艺术交流;经济信息咨询服务;稿件交流、刊物邮购;设计、制作、代理、发布广告;销售百货、五金交电、化工产品;资料编辑。(企业依法自主选择经营项目,开展经营活动;依法须经批准的项目,经相关部门批准后依批准的内容开展经营活动;不得从事本市产业政策禁止和限制类项目的经营活动。)。在北京市,相近经营范围的公司总注册资本为102783万元,主要资本集中在 1000-5000万 和 5000万以上 规模的企业中,共38家。本省范围内,当前企业的注册资本属于良好。
通过百度企业信用查看北京《国家治理》周刊杂志社更多信息和资讯。
段伟文|科技伦理治理,如何伦理先行?
什么是 科技 伦理治理?“ 科技 创新,伦理先行”又意味着什么?虽然现在并没有关于什么是 科技 伦理治理的定义,但现在它既然作为一个从国际到国家层面倡导的多主体协同体系,就必然在实践中构建成一个决定相关认知与行动的框架,并且对 科技 伦理本身做出了新的规定性。从现象上来看,不论是2017年这波人工智能热之后的人工智能伦理热和数字治理,还是2018年重大 科技 伦理事件后的国家 科技 伦理治理体系建设,虽然以往来自 科技 伦理和应用伦理的传统的 科技 伦理研究者在其中发挥了一定的作用,但作为在此过程中广泛接触到政、产、学、研、媒等方面的亲历者和参与者,不得不指出的是,参与 科技 伦理治理研究和实践的主体更多的是 科技 、管理、法律等方面的人士。这实际上表明, 科技 伦理治理与其说是将 科技 纳入伦理框架,毋宁说是将 科技 伦理纳入 科技 的框架。因此,从 科技 伦理治理的角度来讲,意味着在 科技 和伦理两个方面的创新,而且往往是在实践层面寻找中间方案的过程,这是我们对此应有的基本认知。基于这一认知, 科技 伦理研究者应从国际和国内 科技 伦理治理的实践出发,在理解和思考其中的创新文化、价值取向和运作机制的基础上,探寻面向现实的 科技 伦理治理之道。
1. 作为研究与创新红绿灯的 科技 伦理原则
科技 伦理治理的一个重要内容是明确 科技 伦理原则。其实伦理原则在理论和实践上比较复杂,包括道德哲学前提、伦理论证方式、伦理原则排序以及伦理原则本身的局限性等等。但近几年来,出现了大量的 科技 伦理原则,特别是在人工智能伦理领域,像出现了伦理规范、准则、标准的寒武纪爆发,来自 科技 、法律、公管、 社会 学以及 科技 伦理与伦理等各个领域的人参与其中。因为来自不同领域,原则的制定本身就不再是一个学理的讨论,最后得到伦理原则及其表述是不同领域参与者都能接受的内容,所以得出的各种伦理原则大同小异,如造福人类、尊重生命权利、维护公平公正、确保安全可控等等,基本上反映的是人类共同价值再加上颁布原则的主体的核心伦理诉求。然而,现在国内的 科技 活动主体对伦理原则的理解有两大误区:一是只是用它来显现和表达对 科技 伦理问题的重视,这难免有伦理漂白之嫌;二是只是将它视为一套禁止性规范,对其多少有些敬而远之。但实际上,伦理原则在英美主导的当代 科技 创新文化中可能更多地意味着 游戏 规则,其主要内涵不是说什么东西不行,而是说如果满足了什么条件或者遵守一些原则,那就是可行的。比如,2019年10月31日,美国国防创新委员会推出《人工智能原则:国防部人工智能应用伦理的若干建议》,这是对军事人工智能应用所导致伦理问题的首次回应。从这个案例来看,创新主体如果接受了这种 游戏 规则意识,就可能倾向于认为,一旦在遵循了某些特定的伦理原则之后,就是可行的。
2. 科技 伦理治理旨在促进研究和创新
由此不难看到, 科技 伦理治理的论述逻辑与道德哲学和伦理学研究中的论证或论述方式是不一样的。以其中第二条为例“将编辑严格限制在预防严重疾病、会导致严重疾病的基因且被编辑的版本常见于人群且没有严重的不良反应的范围内”,这句话本身就是在进行伦理论证。 科技 要造福人类,要带来 社会 福祉,这句话就说得很清楚,首先预防严重疾病,然后所预防的这个严重的疾病,是常见的。换句话说,这里面就是有一个公共卫生的资源分配的公正性问题。所以我们一定要从字里行间解读其中的价值预设和伦理内涵,看到其辩护的理由,而不是简单地当作原则去套用。
其实,这些文件的制定,并非原则性的“大话”“好词”的罗列,而是一个策略性的创造过程。其中,尤为重要的策略是,通过设定研究和监管上的条件,为其所支持的研究和创新创造模糊的可行性空间——当然其背后的动力机制是经济 社会 发展、全球问题应对、以及国家竞争和区域竞争对 科技 领先的刚性需求。例如,“有良好的临床数据表明编辑的安全性与效用”实际上是建议在这个领域可以进行 探索 性研究,至于怎么 探索 ,可能是动物实验或其他替代性实验,也可能是游走在现有规则的边缘,甚至进入有争议的无人区。因此,前沿领域的 科技 伦理治理的实践智慧在于 科技 可能性与伦理可行性的模糊空间的创造。如第四条提到“稳健的监管并确保受试者安全”,什么是稳健的监管?怎样确保受试者的安全?再看第五条“有长期的跨代际 健康 监控措施”,就是说生殖系基因编辑固然会影响到后代,但可以通过某种跨代际 健康 监控措施防范可能的风险。对这些措施的解读和评估不仅不是绝对的,而且为研究和创新者提供了证明其创新在伦理上的可接受性的路径。
换言之,这些建议和指南中的原则与条件的提出实际上是“亲技术的”,其目的是要促进而不是阻止创新,它们是在给科学家具体的和正面的暗示,即在重视基本的生命安全红线和伦理底线的前提下,伦理上可接受的科学是一片大可 探索 创新的天地。又如2018年6月,英国纳菲尔德生命伦理协会(Nuffield Council on Bioethics,NCB)分布的报告《基因组编辑与人类生殖: 社会 与伦理议题》指出,尽管当前的条件并不满足伦理可接受性指出,但在特定情况下人类生殖系基因组编辑在伦理上是可接受的。为此,报告列出了需要满足的5个条件。与前述美国三院的文件类似,其中的第三条指出“在技术被用于临床之前,需要有充分的循证医学证据”,那什么样的循证医学证据叫做充分的?由谁来论证?显然,这是在提示研究和创新者可以从这个方面的自我评估与管理实现与监管的对接。
3. “亲技术”的ELSI研究与 科技 伦理软着陆机制
同时,纳菲尔德的报告对 社会 与伦理议题的强调实际上表明 科技 伦理治理不仅涉及伦理,且涉及安全、政治、法律、 社会 等方方面面的问题;而我们对其加以解读的时候不应该停留在对相关问题的认知,还要看到其中所建议的解决问题的方案。例如,该报告第一条是 CRISPR Cas 9系统在未来被证明是安全的;第二条指出“要通过持续不断的公共教育使公众理解生殖系基因编辑并达到对科学的信任,避免出现’优生学’”;第四条和第五条是“研究应该有足够的 社会 效益,应表明基因编辑能够服务于患者及其家庭的福祉”“在开展基因编辑之前,该技术应该已经经过 社会 公开讨论和征求意见”。这里面不仅有伦理正确,更有生命安全、政治正确和 社会 接受等方面的考量,这些问题显然不可能完全由科学家和政治家决定,最终需要通过改变公众的认知消除其对 科技 伦理风险的疑虑。
科技 伦理治理当然离不开 科技 伦理等相关研究。英国等欧美国家在进入本世纪以来就十分重视新兴 科技 的伦理、法律、 社会 问题(ELSI)研究,一个重要的策略是强调 科技 传播和公众参与科学。固然可以说其宗旨在于促进负责任的研究与创新,但其中未明确表达的诉求对研究和创新所导致的 社会 、伦理与法律问题进行调解与协调,在一定程度上具有研究创新公关的意味。当前国际 社会 生命 科技 等新兴 科技 的ELSI研究的努力方向是增进 社会 对科学的信任。也就是说,与哲学和伦理层面的批判性反思不同,ELSI研究的目的不是揭示和批评研究和创新中的问题,而是要让它们得到化解和监管,从而使 科技 在 社会 基本可以接受的情况下进行研究和创新。
由此,可以观察到所谓“ 科技 创新,伦理先行”的目的是为 科技 创新构建伦理软着陆机制,即对相关伦理风险的认知与共识的基础上,大致划定安全红线和伦理底线,使伦理问题得到有效的管控。而这些问题则取决于知识经验和利益诉求不同的相关群体,特别是拥有话语权和解释权的群体的认知。而且,在 科技 伦理治理实践中,将伦理看作研究与创新的优先事项的结果往往是通过技术和管理手段寻求伦理风险的止损点。其基本策略是将伦理风险转化为技术和管理上的解决方案,如将数据伦理中的隐私问题转化为隐私计算,进而形成可操作的行业标准,而不是不断地深挖可能的伦理风险及其根源。
进一步而言,透过 科技 伦理治理及相关研究可以看到,渗透其中的 科技 创新文化建立在当前主流的国家主导的 科技 创新框架之上,其实质是推动创新的,是亲技术的,而非人文反思和哲学批判性的。
在 科技 伦理治理层面的这些特征,无疑有助于 科技 伦理研究者反思在新兴 科技 伦理治理中的研究和协同策略。正如卡尔.米切姆(Carl Mitcham)在《中国技术哲学应该重视批判性》一文中所指出的那样,自由与知情同意、人权、风险-成本-收益分析、科研诚信、隐私以及利益冲突等技术伦理研究的基本立场是“亲技术”的[1]。由于国内的大多数 科技 伦理研究者的大多数研究基于对国外 科技 伦理研究和实践的评介,而很少参与到管理部门、科学家和企业对 科技 伦理治理的讨论之中,往往没有明确地认识到这一点。最近,中科院长期研究致毁性 科技 风险的刘益东研究员在《对两种 科技 伦理的对比与研判》一文中强调:“目前 科技 伦理研究已成热点,以是否维护主流 科技 发展模式为判据, 科技 伦理可分为两种:维护辩护式 科技 伦理和变革转型式 科技 伦理,可分别简称为 科技 伦理I、 科技 伦理II。前者默认当前(西方或世界)主流 科技 发展模式可持续,以此为前提,用 科技 伦理来弥补、修复、解决 科技 发展中产生的伦理问题,维护其继续发展;后者则做深度反思,揭示 科技 伦理风险的根源在于主流 科技 发展模式的内在缺陷,认为治标要治本,变革转型 科技 发展模式才是根本解决之道和当务之急。”[2]在他看来,目前主流的 科技 伦理治理是在 科技 的框架下进行的,不论是负责任的研究与创新还是平衡风险与受益的平衡论都是高 科技 高风险赌局的一部分,也难以约束科学狂人和尖端武器研发竞赛。
在主流 科技 创新框架下,这一鲜明的批判立场一时难以改变现实,但明确地认识到其所揭示的 科技 伦理治理亲技术的现实,认识到 科技 伦理治理的相对性,无疑有助于 科技 伦理研究者反思在新兴 科技 伦理治理中的研究和协同策略。
4. 面向深度 科技 化时代的实践智慧
当前,新兴 科技 的发展走向日益走向深度 科技 化时代,对生命、 社会 和文明具有突破性和颠覆性影响的 科技 创新层出不穷, 科技 伦理研究的一个重要方面是探讨 科技 伦理治理中的 群体认识论策略 ,直面既有 科技 伦理治理的创新文化、价值取向和运作机制,探寻有效推进 科技 伦理治理的实践智慧。
为了不让这些倡议束之高阁,就需要从管理上建立一套机制。就目前来看,至少可以采取两方面的举措。一方面,通过广泛的调研和预见性研究与评估,设立具体领域的 科技 伦理高风险清单,目前国家 科技 伦理委员会正在研制生命伦理、医学伦理和人工智能伦理的高风险清单。这些清单的发布和动态更新的目的就是要让 科技 共同体、管理者和整个 社会 公众等群体认识到具体的 科技 伦理风险所在,尽管这样并不能预防那些难以预见的风险,但现实是我们只能通过提升研究的质量加以改进。另一方面,可以从开源创新和开放科学的维度,要求具有较高 科技 伦理风险的研究和创新活动在启动阶段公开注册,通过数据开放存储与共享,在研究实验的全生命周期保持研究数据的透明性和可核查性,以便及时接受必要的伦理风险评估和审查。近年来,国家 科技 主管部门和 科技 机构越来越重视开源创新和开放科学,为增进知识共享和应对科学研究的可重复性危机提供了有效途径,将来在 科技 伦理治理方面应有较大的发展空间。
其次, 科技 伦理的协同共治需要进一步 探索 相应的面向多元共治的群体协同认识论。一些重大 科技 伦理事件的教训表明,研究主体突破 科技 伦理底线的行为往往是在问题研究公开发表甚至成为丑闻之后才为人所知。为了避免 科技 伦理治理的被动层面,在不同主体知识、信息和话语权不对称的情况下,需要在系统思维和底线思维的基础上形成一种有利于协同共治的群体认知文化。对此,中国航天的总体设计和系统工程中的认知文化具有一定的启发意义。20世纪60年代,在东风导弹的研制中,时任国防部五院一分院总体设计部政委刘川诗组织起草并提出了“谦虚、信赖、交底、讲理”八字协作方针,后来又发展成 “谦虚、信赖、交底、讲理、主动、负责”十二字指导方针 。不难看到,在 科技 伦理治理中,不同主体之间的信赖、交底、讲理、主动、负责无疑是至关重要的,而营造这种群体认知文化,显然有助于克服闯祸的研究者不对同行和管理部门交底等关键问题。
另一个航天系统工程中的群体认识论是巨浪导弹总设计师黄纬禄当年提出的“四个共同”的工作理念,即“有问题共同商量、有困难共同克服、有余量共同掌握、有风险共同承担”。巨浪导弹是一个固体的燃料导弹,因为要在潜艇里面发射的话,它的总体积是很有限的,所以每个部分都要做得足够小,这里面一个很重要的问题就是就是余量。就是如果每一个系统都有余量,就不能够把它尽量的做小,到最后整体就不行。在未来的 科技 伦理治理中,如果能够做到“四个共同”,有助于提升 科技 伦理治理在实践中的协同性。作为一个哲学家和伦理学家,如果参与 科技 伦理治理可能要注意不要将哲学上的批判绝对化。而研究算法治理的法学家,也不应该只是从法律规定的角度对一些发展中的问题做出绝对化的断定,而应该对现有法律认知和法规尚未认识到和覆盖到一些新问题有所意识。同样地,对于监管者来说,要想清楚监管的力度是不是恰当;对于 科技 公司来说,要充分认识到其产品、服务和经营方式的 社会 影响,尤其是 社会 公众的印象和 社会 接受程度。简言之,相关主体的认知与行为都要有“余量”是 科技 伦理治理必不可少的群体认知论策略和实践智慧。
其三, 科技 伦理治理要注重遵循相称性原则,既要避免松懈也要防止过于严格。20世纪70年代,中国曾经对人工智能进行过批判。对此,中国杰出的人工智能专家马希文在20世纪为德雷福斯的名著《计算机不能做什么?》中文版的序言中提出了反思。在他看来,由于人们过分强调了计算机在生产自动化方面的作用,甚至把计算机应用的目的片面地解释为节约劳动力,这就使得很多人担心这会带来劳动力过剩的问题,进而对之产生疑问,最终导致了我国计算机应用日程向后推后了若干年。他不无洞察地指出:“如果我们认真从这件事情吸取了教益,那就应该慎重地对待当前宣传中越来越普遍使用的“电脑”这一绰号——这如果不算是“港台风”,也至少使我们想起四十年代有人把摩托车称为‘电驴’,不应只从商品心理学的角度谈论这个问题,因为它暗示了计算机可以取代人脑这一个重大的哲学命题。实际上,许多学者已经明明白白地把这个命题表达出来了。如果漫不经心地把没有经过科学认证过的命题应用到 社会 生活中去,我们很可能再一次付出代价。”
这些反思和洞见中体现的群体认识论策略就是国际 科技 伦理治理中非常重视的相称性原则,其基本内涵是既不忽视问题也不夸大问题,而展开有针对性的治理。包括联合国教科文组织新近颁布的人工智能伦理建议等国际 科技 伦理指引中都强调了这一原则。但如何做到相称呢?如果沿着协同治理和保留 “余量”的策略,可以从两个方面入手。
一方面, 科技 不要冲得过快,并且 科技 活动的主体应该认识到为了使 科技 伦理风险可控,需要及时地做出伦理回调。科学共同体应该认识到,干细胞研究中因为伦理争议导致研究议程减缓等教训表明,科研冲得过快而不考虑伦理问题就难免踢到伦理铁板,而不得不做出伦理回调。研究者应该认识到,在生命医学等存在高伦理风险的前沿领域,在没有对伦理风险做出清晰的研判并形成共识、没有经过透明的公众参与的讨论之前,莽撞地冲到前面去,会使中国的科学共同体乃至国家声誉要受损。真正认识到这一点,就意味着在做科学研究的时候,不要急于追求新奇的东西,在进行突破性研究时,实验应该设计得更精致,数据更可靠,尽力使得研究过程合乎国际 科技 伦理规范,尽可能多地考量研究结果可能的伦理风险。
另一方面,在对 科技 企业的伦理治理、法律规制与行政监管中,应该致力于通过恰当的监管促使其及时做出必要的伦理回调,同时应该避免过于严苛的处置。近年来,由于基于网络平台的大 科技 公司在数据与隐私保护、算法歧视、信息茧房等问题上饱受诟病,国际上出现了强烈的 科技 反冲(techlash)。 科技 反冲这个2018年才出现的新词体现了各国政府和 社会 公众对于大 科技 公司的负面影响和巨大力量的疑虑、抵制和不信任等态度。但是,在数字治理等 科技 伦理治理中,应对 科技 反冲的态度有所节制,而不易简单地否定 科技 企业,如因视其为绝对的垄断的力量,从以往的“包容审慎,鼓励创新”突然转向过度的强监管。为了克服政策的一百八十度转弯等两极化偏误,应从公共的管理的层面展开对 科技 公司的 科技 伦理治理,引导企业让 科技 更好的去发挥造福人类的作用,推动 科技 的公平应用,使 社会 中的每个人分享更多的创新红利。
当前,之所以 科技 伦理治理的相称性,很重要的原因是不论是新冠疫情的爆发还是国际政治与 科技 格局的巨变,都意味着我们需要构建一个更具韧性的 社会 ;而提升 社会 韧性的关键在于,面对诸多骤变的冲击,我们比以往更需要 科技 的力量下恢复这 社会 的活力,开创文明的生机。对此,《金融时报》2021年底推荐的年度最佳经济学读物之一《韧性 社会 》(The Resilient Society)一书的观点也颇有借鉴价值该书指出,面对巨大的风险,有时稳健性并不是最好的前进方式,韧性更能够经受住风暴并更易恢复。书中引用了拉封丹(Jean de La Fontaine)诗歌中橡树和芦苇的隐喻,主张疫情冲击下的人类 社会 应该像“我弯曲,但不折断”的芦苇那样,更具韧性。这一观念对包括数字治理在内的政策的启发是:面对疫情的挑战,应该使各项政策赋予包括企业和个人在内的整个 社会 更大的韧性。
[1] 卡尔.米切姆:《中国技术哲学应该重视批判性》,《哲学动态》,2021(1)。
[2] 刘益东:《对两种 科技 伦理的对比与研判》,《国家治理周刊》,2022年4月(上)。
上一篇:cnki的期刊库
下一篇:邳州日报怎么投稿