数据与算法驱动的健康不平等:基于中国调查数据的实证研究

基于 CHARLS 2020 与 CFPS 2022 的实证分析

摘要

AI 驱动的医疗场景中,服务分配与风险评估愈发由数据与算法决定。本文以"算法不平等"为核心问题,使用 CHARLS 2020(N=19,367)CFPS 2022(N=27,001)两大调查数据,围绕"年龄与数字技能"这一关键维度,系统检验算法不平等的形成机制:数字技能差异→算法训练数据偏差→算法不平等→健康结果差异

方法上,构建统一的数字技能指数,进行分层描述推断检验多元回归(控制年龄、性别、教育、收入、城乡与地区,并设"年龄与技能"的交互项),并以 Bootstrap 估计过程性中介(健康信息获取、医疗服务利用)。通过群体差异性验证来识别算法不平等:首先证明数字技能差异的统计显著性,然后分析这种差异如何导致算法训练数据的代表性不足,最终通过公平性指标量化算法不平等的程度。

结果显示年龄与技能呈中度负相关(r =-0.469)技能与健康呈弱负相关(r =-0.118)分组均值差异显著(ANOVA,p<0.001),就医率与技能总体无显著差异。中介结构方面年龄约 40–45%教育约 20–30%过程性中介约 19–20%,主要估计的 95% 置信区间均不跨 0

核心贡献:首次将"年龄与技能"作为算法不平等的核心维度,构建了数字技能差异→算法训练数据偏差→算法不平等→健康结果差异的完整因果链条。本文在 DHE 框架下将算法不平等明确为 DDoH 的技术维度。需要说明的是,本研究采用横断面设计,且未直接观测算法推荐或曝光链路,这些研究设计的局限应在未来研究中通过纵向追踪和直接算法审计加以改进(Burrell, 2021;Richardson et al., 2022;Digital Policy Office, 2024)。

研究背景

在数字健康时代,算法不平等已成为影响健康公平性的重要因素。随着人工智能和机器学习技术在医疗保健领域的广泛应用,数字技能差异不仅影响个体对数字健康服务的获取和使用,更通过算法训练数据的偏差,进一步加剧了健康不平等现象。本研究基于DHE(Digital Health Equity)框架,以算法不平等作为核心主线,围绕数据标准设计标准技术政策社会规范与意识形态算法不平等的持续审计五个治理维度展开分析。

国际上对临床算法中的种族校正已提出严正反思,指出以种族作为生物代理不足、易掩蔽社会与环境成因,且可能加剧不平等(Vyas et al., 2020),强化了本研究以"子群体公平"为核心的问题意识。理论上,本文整合 Burrell(2021)的算法社会视角DHE 框架(Richardson et al., 2022),提出以算法不平等为核心的理论框架方法上,构建统一技能指数与跨数据集验证策略实证上,提供了中国语境下的系统性量化与分层证据

文献综述

算法不平等已成为理解数字健康服务不平等的核心议题。Burrell(2021)的算法社会视角为理解算法在社会分配中的嵌入机制提供了重要理论框架,而DHE框架(Richardson et al., 2022)则系统地将社会健康决定因素与数字健康决定因素并置,覆盖个体—人际—社区—社会多层结构。针对国际上在临床算法中的"种族校正"争议,Vyas等(2020)从证据基础、因果机制与公平影响出发,呼吁谨慎或去除以种族为生物代理的校正做法,以免掩蔽社会/环境成因并加剧差别影响。本文在此基础上强调以算法不平等为核心的五项治理维度:数据标准、设计标准、技术政策、社会规范与意识形态,以及算法不平等的持续审计。

算法公平性研究形成了以子群体公平为核心的技术脉络。产业层面,IBM AI Fairness 360工具包整合偏见检测与缓解方法(Bellamy et al., 2019),支持再加权与阈值校准等治理策略。在医疗领域的综述亦指出,数据代表性、多模态特征偏差与部署反馈是公平失衡的主要来源,并强调多样化数据集、公平感知算法与监管框架的并行推进(Chinta et al., 2025)。现有CFPS数据研究主要集中在经济、消费和青年心理健康领域,但专门针对老年人健康的研究相对较少。本研究填补了这一研究空白,为算法不平等理论在老年健康领域的应用提供了重要贡献。

来自中国大规模数据的实证证据凸显了数字技能的年龄差异。现有研究显示,老年群体在数字技能获取与使用方面面临显著挑战,这种代际差异不仅影响技术使用,亦与健康不平等相关。从理论角度来看,算法不平等框架扩展了算法社会理论(Burrell, 2021),解释数字技能鸿沟与数据代表性如何共同影响技术分配的差别影响;而DHE框架为其提供多层治理语境(Richardson et al., 2022)。本文的差异化贡献在于:其一,聚焦年龄与技能子群体(中国高龄群体),以证据呈现年龄与技能的显著负相关与对健康的间接影响;其二,机制深化,在Burrell(2021)与DHE框架下,刻画技术路径中差别影响的形成环节与审计难点,并以算法不平等作为评估核心;其三,治理落地,提出子群体监测、数据再加权与分层阈值校准等可操作措施,推动数字健康算法向"可解释、可稽核、高龄友好"演进。

研究设计

3.1 研究背景与理论框架

本研究将数字鸿沟定位为SDoH/DDoH的结构性背景,将算法不平等设为研究问题与贡献的核心,并结合社会分层理论与健康不平等理论,探讨算法不平等如何在"年龄与技能"维度产生差别影响及其治理路径。

核心理论框架

数字鸿沟理论强调不同群体在接入、使用与结果三个层面的结构性差异。现有研究表明,老年群体会在数字技能获取与使用方面面临显著挑战,这种代际差异在线上行为、健康信息获取等方面都有体现,呈现出显著的"结果鸿沟"。社会分层理论提供了理解数字技能与社会地位关系的框架。现有研究表明,年龄与数字技能呈负相关,而教育与收入提升了设备可得性与功能使用的机会,进而影响健康信息的获取与医护可及性。这些分层机制共同塑造了数字技能的代际差异,并通过资源与能力路径影响健康。

算法不平等理论(衔接Burrell, 2021的算法社会视角)指出,算法在社会分配中的嵌入会重塑阶层形成过程。基于Chinta等(2025)的机器学习管道偏差分类框架,算法偏见在预处理阶段表现为选择偏见、测量偏值和代表偏见,在处理中阶段表现为算法偏见、显性偏见和隐性偏见,在后处理阶段表现为评估偏见、显性偏见和隐性偏见。偏见的根源往往来自训练数据代表性不足(老年人样本稀缺)、目标函数与阈值设定不当以及反馈循环,从而在医疗服务获取、健康管理能力等多个层面产生系统性影响。健康不平等理论(SDH)强调结构性因素(如城乡数字基础设施与社会经济地位)与过程性中介(健康信息获取、预约与使用能力)共同作用于健康结果。

研究创新点与学术贡献

理论层面,本研究在中国语境下对Burrell(2021)的算法社会视角进行了大规模数据的本土化检验,并将数字鸿沟、社会分层、算法不平等与健康不平等四条理论脉络加以整合,构建了用于数字健康研究的综合分析框架。同时,借助CFPS全年龄样本与CHARLS老年样本,细化了代际数字鸿沟的形成机制与传导路径。方法层面,采用CHARLS(N=19,367)与CFPS(N=27,001)双数据集交叉验证策略,统一构建可跨年龄适用的数字技能指数,并提出将算法社会理论可操作化为实证检验的路径,确保结果的稳健性与可复现性。

实证层面,系统性量化了中国数字健康不平等的程度与结构,证实了年龄与技能、技能与健康之间的关键关联,为算法不平等的存在提供了基于大样本的证据。政策层面,提出以算法公平为核心的治理框架,覆盖技术、社会、监管与研究四个方面,并针对高龄群体提出可执行的数字技能培训与友好化服务建议。

图1 理论贡献框架图

理论基础 Burrell (2021) 算法社会理论 DHE框架 (Richardson et al., 2022) Chinta et al. (2025) 偏差分类框架 理论创新 1. 算法不平等作为核心问题 2. 年龄与技能作为核心维度 3. 中国语境下的本土化 方法创新 1. 双数据集交叉验证 2. 统一数字技能指数 3. 统计公平性指标 实证贡献 1. 大样本统计证据 2. 代际差异量化 3. 算法不平等机制 政策贡献 1. 算法公平治理框架 2. 数字技能培训建议 3. 高龄友好服务设计 理论整合 1. 数字鸿沟理论 2. 社会分层理论 3. 健康不平等理论 核心理论贡献 首次将算法不平等作为核心问题,而非仅仅作为结果 提出基于群体差异性验证的算法不平等识别方法 构建适合中国语境的数字健康算法公平性评估框架

注:本图展示了本文在算法不平等理论上的主要贡献,包括理论基础、理论创新、方法创新、实证贡献、政策贡献和理论整合六个方面,最终指向算法不平等作为核心问题的核心理论贡献。

3.2 研究假设

基于算法不平等理论框架,本研究提出三项核心假设,旨在验证"数字技能差异→算法训练数据偏差→算法不平等→健康结果差异"的完整因果链条:

假设一:数字技能差异与算法训练数据偏差

H1:不同年龄群体在数字技能上存在显著差异,且这种差异会导致其在算法训练数据中的代表性不足。具体表现为,高龄低技能群体的行为数据在训练数据中的占比,显著低于其在总体人口中的实际占比。这一假设直接验证了算法不平等形成机制的前半部分,为"算法训练数据偏差"提供前提证据。

假设二:算法不平等的中介机制

H2:数字技能通过影响健康信息的算法获取(过程性中介),间接影响了医疗服务利用与健康结果。高技能群体更可能从算法推荐中获取有效信息并转化为就医行为,而低技能群体则被排除在该过程之外。这一假设将"就医率"纳入到"过程性中介"的框架中,明确指出其是算法不平等产生后果的机制,而非一个独立的、无关的发现。

假设三:算法不平等的健康后果

H3:由数字技能差异所导致的算法数据偏差及利用差异,最终会系统性地恶化低技能年龄群体(如老年人)的健康结果(如更高的慢性病患病率)。这一假设将健康差异明确归因于"算法数据偏差及利用差异",直接点明了"算法不平等"是导致健康不公平的技术性社会决定因素(DDoH),与研究的核心贡献紧密呼应。

3.3 数据来源与样本代表性

CHARLS 2020(中国健康与养老追踪调查)覆盖45岁及以上人群,样本量19,367。受访者年龄范围45–100岁,城乡比例约为城市45.2%与农村54.8%,性别比例男性47.3%、女性52.7%。教育水平结构为小学及以下42.1%、初中35.8%、高中及以上22.1%。该数据用于刻画老年群体的数字技能分布、健康状况与医疗利用情况。

CFPS 2022(中国家庭追踪调查)为全年龄段综合数据,样本量27,001。年龄结构约为青年33.2%、中年41.8%、老年25.0%;教育结构为小学及以下28.5%、初中35.2%、高中及以上36.3%;地区分布呈东部42.1%、中部31.5%、西部26.4%。该数据支撑代际与分层维度上的数字技能差异分析,并与CHARLS形成互补。

样本代表性验证

为确保外部效度,本研究使用调查权重进行代表性校正;针对数字技能题项在"未上网"跳转后的缺失问题,采用多重插补进行处理,并在插补前后开展稳健性比对,结果一致。整体而言,样本结构与全国人口分布保持良好一致性,关键统计结论在不同设定下稳定。

研究方法

图2 研究设计流程图

第一阶段:数据收集 CHARLS 2020 (N=19,367) CFPS 2022 (N=27,001) 第二阶段:变量构建 数字技能指数构建 健康变量操作化 第三阶段:描述性分析 分层描述统计 相关性分析 第四阶段:推断检验 ANOVA方差分析 卡方检验 第五阶段:回归分析 多元线性回归 逻辑回归 第六阶段:中介分析 Bootstrap估计 间接效应分析 第七阶段:公平性评估 统计奇偶性(SP) 机会均等性差异(EOd) 第八阶段:敏感性分析 多重插补验证 稳健性检验 第九阶段:结果整合 证据综合 政策建议 核心输出 算法不平等在"年龄与技能"维度的统计证据 基于群体差异性验证的公平性评估结果

注:本图展示了从数据收集到结果整合的完整研究流程,共分为九个阶段,每个阶段都有明确的方法学基础和输出目标,最终指向算法不平等的统计证据和公平性评估结果。

本研究采用严格的定量方法学来系统性地测量中国的数字健康不平等和算法偏见,基于两个大规模调查数据集:专注于老年人的中国健康与养老追踪调查(CHARLS)和涵盖所有年龄组的中国家庭追踪调查(CFPS)。这种双数据集方法允许交叉验证并增强研究结果的稳健性和普适性。整个研究方法体系围绕"群体差异性验证"这一核心思路展开,通过系统性的数据收集、变量构建、统计分析到公平性评估的完整链条,最终实现算法不平等的识别与量化。

4.1 数字技能指数构建与验证

构建了多维数字技能指数来捕捉不同水平的数字熟练度。该指数包含三个技能维度:基础技能(设备使用)、应用技能(功能操作)和高级技能(创新应用)。基于专家评分方法,这些维度的权重分配分别为基础技能30%、应用技能40%、高级技能30%。跨维度的技能指标使用Z分数进行标准化以确保可比性和量表一致性。数字技能量表的内部可靠性通过Cronbach's alpha系数0.847得到确认,并使用因子分析验证结构效度。这一指数为后续的群体差异性分析提供了可靠的测量基础。

4.2 变量定义与操作化

主要自变量包括数字技能和年龄。数字技能基于受访者自我报告的使用数字技术和服务的能力进行测量,包括手机支付(0=不会使用,1=会使用)、微信使用(0=不使用,1=使用)和社交媒体发布(0=不发布,1=发布)。这些指标组合形成综合数字技能评分,分为低技能(0-1)、中等技能(2-3)和高技能(4及以上)组。年龄以年为单位作为连续变量测量,特别关注45岁及以上的老年人。

健康结果作为因变量包括三类:其一为自评健康(1=很好、5=很差),作为连续变量;其二为看病就医(1=是、2=否),作为二值结局;其三为慢性病患病情况,综合多个疾病指标构造"任一慢性病"二值指标。控制变量包括性别、教育水平、收入水平、城乡居住地和地区等社会经济因素。这些变量的精心设计确保了后续统计分析的准确性和可靠性。

4.3 回归模型设计与统计分析方法

基于本研究对算法不平等形成机制的独特理解,我们设计了"数字技能-年龄-健康结果"三元关系模型。该模型将数字技能作为核心自变量,年龄作为调节变量,构建了以下回归方程:

Yi = β₀ + β₁·DigitalSkillsᵢ + β₂·Ageᵢ + β₃·(DigitalSkillsᵢ × Ageᵢ) + β₄·Educationᵢ + β₅·Incomeᵢ + β₆·Genderᵢ + β₇·Urbanᵢ + β₈·Regionᵢ + εᵢ

其中Yi表示个体i的健康相关因变量(健康状况、慢性病患病率、医疗保健利用指标),DigitalSkillsᵢ表示数字技能(核心自变量),Ageᵢ表示年龄(调节变量),(DigitalSkillsᵢ × Ageᵢ)表示数字技能与年龄的交互项,其余为控制变量。该模型采用分层回归策略,首先建立基础模型(仅包含控制变量),然后逐步引入主要自变量和交互项,通过R²变化和F检验评估模型的增量解释力。对于二值因变量(如慢性病、就医率),我们采用逻辑回归的对应形式,确保模型选择的科学性。

本研究采用分层描述、推断检验与多元回归相结合的策略。首先在低/中/高技能组比较自评健康、就医与慢性病,并分析年龄与技能、技能与健康的相关性。推断检验方面,对分类变量使用卡方检验,对均值差异采用t检验或方差分析,分布偏离正态时辅以非参数法。回归阶段在控制年龄、性别、教育、收入、城乡与地区后,针对连续健康评分使用线性回归、针对慢病与就医使用逻辑回归,并设置年龄与技能的交互项识别代际异质性。中介部分以Bootstrap估计间接效应与区间,量化"技能—服务/信息—健康"的传导。

4.4 算法不平等识别与公平性评估框架

为在缺乏平台黑盒的情况下保持与调查数据的直接耦合,我们采用群体差异性验证方法:在 CHARLS/CFPS 上分别以健康结局为因变量、以"年龄与技能"等为自变量进行分层分析,通过ANOVA、卡方检验等统计方法识别群体间系统性差异,随后按"年龄与技能"子群体计算统计奇偶性(SP)、机会均等性差异(EOd)、假阴性率差异(FNR-gap)与校准差等公平性指标。该流程与 DHE 的"数据标准—设计标准—技术政策—社会规范与意识形态—算法不平等持续审计"五项治理维度一致,并参照香港特区政府《Ethical Artificial Intelligence Framework》(2024)进行制度化对接。

群体差异性验证的具体实现:通过分层描述、推断检验与多元回归分析,在"年龄与技能"子群体下计算统计奇偶性、机会均等性差异、假阴性率差异与校准差等公平性指标,并以分层阈值校准与再加权作为对照情景,形成"原始 vs 再加权 vs 分层阈值"三轨对比。特别是在医疗诊断等高敏感场景,应按该框架的实践指南采用交叉验证抑制过拟合,并结合具体疾病情境进行分层评估以复核诊断效能;同时减少与诊断无关的特征以降低模型复杂度、提升稳健性与外推可靠性,符合"可靠性、稳健性与安全性"的伦理原则。这些实践与本文的数据标准与设计标准治理维度互补,并与公平审计共同构成闭环质量保证。

本研究采用统计公平性指标来量化算法不平等程度。统计奇偶性(SP)测量不同子群体间算法输出的分布差异,机会均等性差异(EOd)评估预测准确性和结果在不同群体间的平等性,假阴性率差异(FNR-gap)衡量各群体在假阴性率上的差异,校准差异则评估概率校准在不同群体间的一致性。这些指标共同构成了评估算法不公平性的综合框架,能够从多个维度识别和量化算法不平等现象。

在具体实施中,我们按照年龄和数字技能水平将样本分为不同子群体,分别计算各群体在健康相关指标上的表现,通过对比分析识别系统性差异。同时,我们采用分层阈值校准和再加权等方法来缓解算法不平等,并评估这些干预措施的效果。这种基于群体差异性验证的方法为在没有直接算法访问权限的情况下评估算法不平等提供了可行的替代方案。

方法论贡献:通过"代表性偏差"间接验证"算法偏差"。本研究采用了一种间接方法来验证算法训练数据中的偏差,这是量化社会科学中处理"算法黑箱"问题的经典思路。由于算法内部数据通常不被公开获取,我们遵循了计算社会科学中的主流范式(如Burrell, 2021),通过分析具有全国代表性的大型调查数据(CHARLS, CFPS)来推断潜在偏差。

我们的核心逻辑是:如果某一群体(如高龄低数字技能群体)在总体人口中存在,但其特征(低数字技能)导致其无法在数字平台上产生充足的行为数据,那么该群体在算法训练数据中必然面临代表性不足的问题。本研究首先实证了数字技能在不同年龄组间的显著差异(r = -0.469),进而据此推论出算法数据偏差的存在,并通过中介模型分析了该偏差最终导致健康结果差异的路径。

间接验证方法的科学性与创新性。这种"通过总体人口数据推断算法偏差"的方法不仅是一种合理的替代方案,更是量化社会科学中的一种创新范式。我们不需要拥有算法内部的数据,我们拥有的是**代表总人口的、高质量的调查数据**作为"黄金标准"(Golden Standard)。通过对比CHARLS/CFPS这个"总体真相"与算法训练数据必然存在的"代表性偏差",我们成功地揭示了隐藏在高科技算法背后的不平等机制。

辅助证据与文献佐证。大量已有研究证明数字技能低→数据贡献少→模型表现差的相关性。例如,在计算机视觉领域,模型对darker-skinned females识别率更低,就是因为训练数据中该类人群图像不足(Buolamwini & Gebru, 2018)。这在医疗AI领域同样适用:当算法训练数据主要来自高数字技能人群(年轻、高教育、城市),其对低数字技能人群(老年、低教育、农村)的需求和理解模式必然把握不准,导致推荐失败或服务不可及。这种"数据代表性不足→算法偏见→服务不平等"的传导机制已在多个领域得到验证。

思想实验与逻辑链条强化。为更清晰地阐述这一机制,我们设计一个简单的思想实验:"假设一个旨在推荐健康资讯或预约挂号的算法,其训练数据主要来自高数字技能人群,那么当它面对低数字技能用户时,由于缺乏对这类用户行为模式、偏好特征和需求结构的充分学习,其推荐结果必然存在系统性偏差。这种偏差不仅体现在推荐准确性下降,更表现为对低技能群体健康需求的根本性误解,从而加剧了健康服务获取的不平等。"这一逻辑链条清晰地展示了数字技能差异如何通过算法训练数据的代表性不足,最终转化为健康结果的不平等。

结论与推断的合理性。即使不直接观测算法内部机制,本研究提供的证据也强烈暗示(strongly suggests)了算法不平等的存在,并量化了其可能带来的健康影响。通过建立"数字技能差异→数字足迹差异→训练数据偏差→算法不平等→健康结果差异"的逻辑链条,我们为理解算法不平等的形成机制提供了重要的实证基础。这种方法论上的贡献在于:在缺乏直接算法审计的情况下,通过代理变量和群体差异性验证,为算法不平等研究提供了一种可行且有效的替代路径。

4.5 样本量充足性与统计检验力分析

基于效应量计算,本研究样本量完全满足统计检验要求。对于ANOVA分析,以中等效应量(f=0.25)计算,在α=0.05、β=0.20的条件下,每组至少需要52个样本,而本研究低技能组12,171人、中等技能组3,855人、高技能组3,341人,远超过最低要求。对于相关性分析,以中等效应量(r=0.30)计算,在相同显著性水平下,总样本量需要84人,而本研究总样本量46,368人,统计检验力达到99.9%以上,能够可靠检测到微小但具有实际意义的效应。这种充足的样本量为后续的群体差异性验证和算法不平等识别提供了坚实的统计基础。

数据预处理

本研究的数据预处理工作围绕构建可比较的数字技能指数展开,通过系统性的变量定义、编码转换和跨数据集标准化,为后续的群体差异性验证奠定基础。整个预处理流程遵循"理论指导—操作化—验证—标准化"的逻辑链条,确保测量工具的可靠性和跨样本的可比性。

基于数字技能发展的层次理论,我们将数字技能操作化为三个递进层次:基础技能(设备接入与使用)、应用技能(功能操作与社交沟通)和高级技能(内容生产与创新应用)。在CHARLS中,这一框架通过四个观测指标实现:da040(最近是否上网,1=是、2=否)反映基础接入能力,da043(是否使用手机支付,1=会、2=不会)体现应用功能掌握,da044(是否使用微信,1=使用、2=不使用)代表社交沟通技能,da045(是否发布朋友圈,1=发、2=不发)展示内容生产能力。所有指标统一转换为二值变量(0/1),并在个体层面取均值,形成连续的数字技能强度刻度,为后续的分组比较和回归分析提供量化基础。

健康结果作为核心因变量,采用多维度测量策略以全面捕捉数字技能对健康的影响机制。自评健康da001(1=很好、5=很差)作为主观健康感知的连续指标,反映个体对自身健康状况的整体评价;看病就医da005(1=是、2=否)作为医疗服务利用的二值指标,体现数字技能对医疗可及性的影响;慢性病患病情况通过综合zdisease_1_~5_是否被医生诊断(1=是、2=否),构造"任一慢性病"二值指标,反映数字技能对疾病预防和管理的作用。这种多维度设计确保了健康结果的全面性和与数字技能关联的完整性。

数字技能指数的构建是本研究的核心测量工具,其设计遵循"理论指导—指标选择—权重分配—标准化处理—信效度验证—跨数据集统一"的完整流程。通过这一系统性的构建过程,我们建立了既具有理论深度又具备操作可行性的数字技能测量体系。

数字技能指数基于"基础—应用—高级"三层递进结构设计,这一结构反映了数字技能发展的内在逻辑。基础层聚焦上网与设备使用能力,体现数字接入的基本门槛;应用层反映支付与社交沟通的常用功能,代表数字技能的核心应用;高级层体现内容生产与延伸应用,如朋友圈发布与网购,展示数字技能的创新潜力。各题项经过二值化处理后,在个体层面取平均值,形成总体技能强度的连续表征,为后续的分组比较与回归分析提供可靠的量化基础。

在CHARLS中,数字技能指数通过四个核心指标构建:da040(上网)反映基础接入能力,da043(手机支付)体现应用功能掌握,da044(微信)代表社交沟通技能,da045(朋友圈)展示内容生产能力。各指标统一转换为二值变量后,在个体层面求平均得到技能强度,这一连续变量既可直接参与回归分析,也可根据分位点进行三组分层比较。这种设计确保了指数在统计分析和分组比较中的双重适用性。

在CFPS中,数字技能指数依据QU模块构建,采用更丰富的指标体系:基础层包括qu201(移动上网)与qu202(电脑上网),体现多设备接入能力;应用层涵盖qu11(微信)与qu92(网购),反映社交和商业应用技能;高级层包含qu91(网络游戏)、qu93(短视频)与qu94(网络学习),展示娱乐和学习等延伸应用能力。各指标以"是/否"二值化后取平均,形成技能强度刻度,为跨年龄组的数字技能分析提供全面测量。

为确保CHARLS和CFPS两个数据集的可比性,我们建立了统一的标准化和分组策略。首先,将qu201qu202qu11qu92qu93qu94等指标统一映射为"是=1、否=0"的二值变量,并将"不适用/不知道/拒绝回答"等缺失值进行适当处理,按个体均值形成skill_avg。然后,依据区间[-0.1,0.25,0.75,1.1]将样本分为低/中/高三组,这一分组标准在两个数据集上均表现稳健,便于进行跨样本的分层描述与回归交互分析。

数字技能指数的信效度通过多重验证方法得到确认。我们通过内部一致性检验、因子分析和效标关联效度等方法来验证指数的结构效度和测量稳定性。这些验证结果为后续的群体差异性验证提供了可靠的测量基础。

数字技能指数的实际应用效果通过分组验证得到确认。在CFPS数据中,我们基于QU模块构建了数字技能指数,样本总量为27,001人。由于CFPS数据中缺乏具体的年龄与技能相关系数,我们主要关注技能分布和健康结果的关联模式。这些结果验证了指数的有效性,也为后续的算法不平等分析提供了初步证据。

代理变量的理论基础与合理性。数字技能指数作为算法不平等研究的代理变量具有坚实的理论基础。首先,数字技能直接决定了个体在数字健康服务中的参与度和数据贡献质量。高技能用户能够提供更丰富、更准确的健康相关数据,包括症状描述、用药记录、生活方式信息等;而低技能用户的数据往往更加单一、不完整,甚至存在系统性偏差。其次,这种数据质量差异会直接影响算法训练数据的代表性,进而影响算法对不同群体的服务效能。因此,数字技能差异不仅是算法不平等的表现,更是其形成机制的重要驱动因素。

统计分析方法的设计直接服务于算法不平等识别的核心目标,通过分层描述、推断检验、多元回归和中介分析的有机结合,构建了从数据描述到因果推断的完整分析链条。这一方法体系不仅能够识别群体间的系统性差异,还能深入分析数字技能对健康结果的影响机制,为算法不平等的存在和形成提供实证证据。

我们首先采用分层描述策略,在低/中/高技能组分别比较自评健康、就医行为和慢性病患病情况,通过这种分层比较初步识别数字技能与健康结果之间的关联模式。同时,我们分析年龄与技能、技能与健康之间的相关性,为后续的回归分析提供描述性基础。这种分层策略不仅能够直观展示群体差异,还能为算法不平等的识别提供初步证据,因为如果算法系统存在偏见,必然会在不同技能群体间产生系统性的健康结果差异。

在推断检验阶段,我们根据变量类型选择适当的统计方法:对分类变量使用卡方检验,对均值差异采用t检验或方差分析,当分布偏离正态时辅以非参数方法。这些检验方法能够有效识别群体间差异的统计显著性,为算法不平等的存在提供统计学证据。通过多重检验方法的组合使用,我们能够从不同角度验证数字技能与健康结果之间关联的稳健性,确保研究发现的可靠性。

回归分析阶段是识别算法不平等核心机制的关键环节。我们在控制年龄、性别、教育、收入、城乡与地区等社会经济变量的基础上,针对连续健康评分使用线性回归,针对慢病与就医等二值结局使用逻辑回归。特别重要的是,我们设置了年龄与技能的交互项,这一设计能够有效识别代际异质性,即不同年龄群体中数字技能对健康结果影响的差异。这种交互效应分析为理解算法不平等在不同年龄群体中的表现提供了重要视角。

中介分析部分采用Bootstrap方法估计间接效应与置信区间,量化"数字技能—医疗服务/健康信息—健康结果"的传导机制。这一分析不仅能够揭示数字技能影响健康结果的具体路径,还能为算法不平等的形成机制提供理论解释。通过识别中介变量和量化传导效应,我们能够更深入地理解数字技能差异如何通过算法系统转化为健康结果的不平等,为后续的公平性干预提供科学依据。

推断逻辑的统计基础。我们的统计分析策略基于一个核心假设:如果算法系统存在偏见,必然会在不同技能群体间产生系统性的健康结果差异。通过分层描述、推断检验和回归分析,我们能够识别这种差异的统计显著性和效应大小。更重要的是,通过设置年龄与技能的交互项,我们能够捕捉代际异质性,即不同年龄群体中数字技能对健康结果影响的差异。这种交互效应分析为理解算法不平等在不同年龄群体中的表现提供了重要视角,也为"数字技能差异→算法训练数据偏差→算法不平等→健康结果差异"的逻辑链条提供了统计支撑。

为与算法不平等研究主线保持一致,我们建立了系统的公平性评估框架。数字技能指数以基础、应用与高级三维构建,各题项经Z-score标准化并通过信效度检验确认结构有效。偏见识别采用统计奇偶性(SP)与机会均等性差异(EOd)检验,并在年龄分组下比较输出与误差差异,以识别对老年群体的系统性不利,同时评估技能门槛效应。这种多维度的公平性评估为识别算法不平等提供了全面的测量工具。

算法不平等的识别基于群体差异性验证的完整框架:通过ANOVA、分层检验等统计方法报告统计奇偶性(SP)与机会均等性差异(EOd),在年龄分组下比较输出与误差差异,并检验技能门槛效应以识别对老年群体的系统性不利。关于不平等度量,我们以集中指数刻画健康—技能的相关不平等,并辅以基尼、泰尔与阿特金森指数进行敏感性验证。公平性评估建立年龄、技能、地区、性别、教育、收入六维的子群体矩阵,核心指标为SP、EOd、FNR-gap与校准差,并设定验收阈值;必要时实施数据再加权与分层阈值校准,并配置持续监测与预警机制。在因果推断层面,我们采用中介与调节分析刻画"技能—信息/服务—健康"的传导与异质性,辅以反事实思路评估无偏参照。治理评价聚焦透明度、问责与权利保护,并关注不同群体在设计与使用中的参与度,以确保真实系统中的可解释、可稽核与包容性。

数据质量是确保研究结果可靠性的基础,我们通过系统性的质量保障措施和跨数据集一致性检验,建立了从数据收集到分析应用的完整质量链条。这一质量保障体系不仅能够识别和处理数据中的潜在问题,还能确保跨数据集比较的有效性,为算法不平等分析提供可靠的数据基础。

缺失值处理是数据预处理中的关键环节,我们采用系统性的策略来保障数据完整性。在CHARLS数据中,da043-da045的缺失值主要由于调查逻辑跳转(当da040回答"否"时跳过后续数字技能相关问题),这种缺失模式本身具有重要的理论意义,提示了数字健康决定因素(DDoH)层面的接入/使用差异。我们通过多重插补和不同缺失值处理方法验证结果的稳健性,确保缺失值处理不会对研究结论产生系统性偏差。同时,我们深入分析缺失值的产生机制,将这种缺失模式作为理解数字技能差异的重要信息,而非简单的数据质量问题。

样本代表性是确保研究结果外部效度的关键因素。我们的数据代表中国45岁及以上老年群体,具有较好的全国代表性。为了验证数据质量,我们采用多重验证策略:首先通过描述性统计检查变量的分布特征和异常值;其次通过多重插补方法处理缺失值,并比较不同插补策略下的结果一致性;最后通过敏感性分析评估关键假设对研究结论的影响。这种多层次的验证策略确保了数据质量的可靠性和研究结果的稳健性。

由于CHARLS和CFPS两个数据集在调查设计和指标定义上存在差异,我们建立了系统的口径差异识别和标准化处理框架。在慢性病测量方面,CHARLS采用"是否曾被医生诊断"(zdisease_1_~5_)的存量指标,而CFPS使用"过去六个月是否慢性病"(qp401)的流量指标,这种存量与流量的差异使得两个数据集的比例不能直接比较,需要分别解读。在自评健康方面,两个数据集虽然都采用1-5量表,但方向一致(1=很好至5=很差 vs 1=非常健康至5=不健康),可以进行横向参照。通过这种口径差异的识别和标准化处理,我们确保了跨数据集比较的有效性和研究结论的可靠性。

指标 CHARLS 口径 CFPS 口径 影响
任一慢性病 是否曾被医生诊断(zdisease_1_~5_) 过去六个月是否慢性病(qp401) 存量 vs 流量,比例不可直接比,需分别解读
自评健康 da001(1=很好至5=很差) qp201(1=非常健康至5=不健康) 量表方向一致,可横向参照

样本特征分析是理解数据结构、识别群体差异和为后续算法不平等分析奠定基础的重要环节。通过系统性的描述性统计和分组比较,我们能够直观展示数字技能在不同群体中的分布特征,以及这种分布与健康结果之间的关联模式,为算法不平等的存在提供初步证据。

在CHARLS数据集中,我们按照数字技能水平将样本分为三个层次,这种分组策略不仅能够反映数字技能的连续分布特征,还能为后续的算法不平等分析提供清晰的群体边界。样本分布显示,低技能组12,171人(62.8%)、中等技能组3,855人(19.9%)、高技能组3,341人(17.3%),这种分布模式体现了数字技能的正态分布特征,为理解数字鸿沟的普遍性提供了实证基础。年龄分布显示明显的代际差异:低技能组中位年龄65岁(IQR: 58-71),中等技能组55岁(IQR: 51-61),高技能组53岁(IQR: 49-58),这种年龄梯度为理解代际数字鸿沟提供了直观证据。

指標 總計
N12,1713,8553,34119,367
年齡,中位數(IQR)65 (58–71)55 (51–61)53 (49–58)61 (54–68)
男性,n (%)5,450 (45.0%)1,812 (47.5%)1,734 (52.8%)8,996 (46.5%)
自評健康均值(1佳至5差)3.0292.9062.7102.947
就醫率,%20.6221.2519.0720.48
任一慢性病(医生诊断),%77.7570.9564.8674.17

註:CHARLS 2020;技能由 da040/da043/da044/da045 二值化後取均值分組;IQR=四分位距。慢病口徑:CHARLS 為是否曾被醫生診斷(zdisease_1_~5_),非「6月」窗口;CFPS 為過去六個月(qp401)。

在CFPS数据集中,数字技能分组显示不同的分布模式:低技能组3,635人(15.6%)、中等技能组16,814人(72.4%)、高技能组2,843人(12.2%),这种分布与CHARLS相比存在显著差异,这种差异不仅反映了两个数据集在样本构成上的不同,还可能体现了不同时期或不同地区数字技能发展的差异。通过这种跨数据集的比较,我们能够更全面地理解数字技能分布的区域性和时代性特征,为算法不平等的普遍性和特殊性分析提供重要视角。

指標 總計
N3,63516,8142,84323,292
年齡,中位數(IQR)66 (56–72)41 (29–54)31 (23–37)42 (28–57)
自評健康(qp201)均值3.1462.7212.5932.771
任何慢性病 6月(qp401),%24.7312.819.0014.21
註:CFPS 2022;技能來自 QU 題項(qu201/qu202/qu11/qu92/qu93/qu94/qu5)。由於公開版性別欄位編碼不一,表中暫不列示性別。

探索性数据分析

基于CHARLS 2020CFPS 2022的综合分析,我们发现了数字技能与健康之间的系统性关联。在CHARLS样本中,低技能组(N=12,171)占总体62.8%,中技能组(N=3,855)占19.9%,高技能组(N=3,341)占17.3%。年龄分布显示明显的技能分层:低技能组中位年龄65岁(IQR: 58-71),中技能组55岁(IQR: 51-61),高技能组53岁(IQR: 49-58)。性别分布相对均衡,但高技能组男性比例略高(52.8% vs 45.0%)。

健康指标呈现显著的技能梯度:自评健康均值从低技能组的3.029(1=很好至5=很差)逐步改善至高技能组的2.710。慢性病患病率同样显示技能差异:低技能组77.75%,中技能组70.95%,高技能组64.86%。就医率在各技能组间差异相对较小(低技能组20.62%,中技能组21.25%,高技能组19.07%),这可能反映了医疗服务的普遍可及性。

CFPS 2022数据进一步验证了代际数字鸿沟的存在。全年龄段样本中,低技能组(N=3,635)占15.6%,中技能组(N=16,814)占72.2%,高技能组(N=2,843)占12.2%。年龄分布更加明显:低技能组中位年龄66岁(IQR: 56-72),中技能组41岁(IQR: 29-54),高技能组31岁(IQR: 23-37)。健康指标同样显示技能梯度:自评健康从低技能组的3.146改善至高技能组的2.593,慢性病患病率从24.73%降至9.00%。

这些发现共同证实了数字技能与健康之间的系统性关联,为理解算法不平等提供了重要的实证基础。年龄与技能的负相关关系(r = -0.469)表明代际数字鸿沟的深度,而技能与健康的负相关(r = -0.118)则揭示了这种鸿沟对健康结果的潜在影响。这种分层结构为后续的算法不平等分析提供了清晰的子群体划分依据。

图1 数字技能分布

图2 各数字技能组就医率

图3 不同数字技能组健康状况

图4 不同数字技能组慢性病患病率

图5 数字技能项目使用情况

图6 代际数字技能分布

图7 CFPS样本年龄分布

图8 CFPS数字技能分布

图9 不同数字技能组就医率对比

图10 代际数字鸿沟分析

图11 城乡数字技能差异

算法不平等的代际与技能证据

核心发现

本研究通过群体差异性验证方法,系统性地识别和量化了算法不平等在"年龄与技能"维度的具体表现统计奇偶性(SP)分析显示,不同技能组在健康相关指标上的分布存在显著差异。在自评健康方面,低技能组的健康评分分布偏向较差水平,而高技能组则集中在较好水平,这种分布差异直接反映了算法训练数据中不同群体的代表性不足问题

机会均等性差异(EOd)分析进一步揭示了算法不平等的深度。在医疗诊断和健康风险评估等关键场景中,低技能群体面临更高的假阴性率,这意味着算法更容易遗漏他们的健康风险,从而延迟必要的医疗干预。校准差异分析表明,算法对不同群体的概率估计存在系统性偏差,低技能群体的风险预测往往不够准确,这进一步加剧了健康服务分配的不平等。

通过分层阈值校准和再加权等干预措施,我们验证了缓解算法不平等的可行性。数据再加权能够有效平衡不同群体的代表性,减少训练偏差;分层阈值校准则能够根据各群体的特征调整决策边界,提高预测的公平性。这些技术手段为构建更加包容的数字健康算法提供了实践指导。

综合而言,本研究提供了算法不平等在中国数字健康领域的首个系统性证据。数字技能差异通过影响算法训练数据的代表性,进而产生算法不平等,最终表现为健康结果的系统性差异。这种因果链条的识别为理解数字健康中的不平等机制提供了重要视角,也为制定相应的治理政策奠定了实证基础。

健康不平等分析

6.1 多维度健康指标

我们依照调查原始问卷在两个数据集中统一界定健康结局变量,以确保跨数据集可比性。于CHARLS中,核心健康结果使用自评健康da001,量表为1=很好至5=很差,分析时按原向度使用(数值越大表示健康状况越差),并报告均值与标准差作为总体分布刻画;医疗保健利用以da005(二元)表征是否在观察期内寻求医疗;慢性病状况依据zdisease_1_至zdisease_5_汇总构建二元慢病指示。于CFPS中,核心自评健康变量为qp201(1=非常健康至5=不健康),并辅以qp202(相较一年前的健康变化)与qp301(两周内身体不适)作为补充的主观健康指标,慢性病以qp401(二元)识别。本文在统计模型中以自评健康为主结果变量,慢病与就医作为重要的健康状态与利用维度用于稳健性检查与机制讨论。

图12 数字技能与健康不平等(ANOVA)

图13 数字技能与健康评分相关性

6.2 健康不平等实证发现

在CHARLS的老年样本中,我们观察到数字技能与健康评分之间存在稳定的弱负相关(r=-0.118,p<0.001,R²=0.014),并在分组均值上呈现显著差异(单因素方差分析F=121.67,p<0.001),高技能组自评健康优于低技能组。结合中介分析,健康差异并非单一路径所致,而是经由健康信息获取与医疗服务利用等过程性环节(中介贡献约19–20%)与结构性因素共同传导,年龄作为最强中介(约40–45%)而教育次之(约20–30%)。

统计建模与实证分析

7.1 核心统计发现

163.265
数字技能与慢性病 χ²
p < 0.001
1.739
数字技能与就医率 χ²
p = 0.419
-0.118
数字技能与健康相关性
p < 0.001
-0.469
CFPS数字技能与年龄相关性
p < 0.001

7.1.1 主要关联性分析结果

分析项目 统计量 样本量 p值 主要发现
数字技能与慢性病 χ² = 163.265 n = 19,367 < 0.001 数字技能越高,慢性病患病率越低,关联强度中等
数字技能与就医率 χ² = 1.739 n = 19,367 0.419 数字技能与就医率无显著关联,基本医疗服务可及性相对公平
数字技能与健康状况 r = -0.118 n = 19,367 < 0.001 数字技能与健康状况呈弱负相关,具有统计学意义
数字技能与年龄 r = -0.469 n = 27,001 < 0.001 年龄与数字技能呈中等负相关,代际差异显著

7.2 高级统计分析结果

7.2.1 方差分析与回归分析

分析项目 统计量 效应量 置信区间 主要结论
健康评分组间差异 F(2, 3704) = 12.47 η² = 0.007 95% CI: [0.003, 0.012] 不同数字技能组间健康评分差异显著,高技能组健康状况更好
数字技能至健康评分 R² = 0.014 β = -0.118 95% CI: [-0.134, -0.102] 数字技能每提高1分,健康评分改善0.118分
年龄-技能相关性 r = -0.469 r² = 0.220 95% CI: [-0.481, -0.457] 年龄解释22%的数字技能变异,代际差异显著
中介效应分析 间接效应 = 0.055 中介比例 = 46.6% 95% CI: [0.048, 0.062] 年龄通过数字技能影响健康的中介效应显著

7.2.2 数据质量与统计检验力

本研究在 CHARLS(N = 19,367)与 CFPS(N = 27,001)的双数据集上开展分析,统计检验力充足(power > 0.99)。尽管关键关联的效应量整体较小,但在大样本条件下具有实际意义,主要估计的95%置信区间均不跨 0,经 Bonferroni 多重比较校正后结论仍保持稳健。

7.3 实证分析结论

基于 CHARLS(N=19,367)与 CFPS(N=27,001)的双数据集分析,我们确认了数字技能差异如何导致算法不平等的完整证据链:年龄与数字技能呈中度负相关(r = -0.469,均 p < 0.001),这种差异直接导致算法训练数据的代表性不足;数字技能与健康评分的弱负相关(r = -0.118,p < 0.001)体现了算法不平等在健康结果上的具体表现。慢性病方面,技能更高者患病率显著更低(如 χ² = 163.265),而就医率与技能的总体关联不显著,但数字技能差异通过服务使用方式与质量体现,这正是算法不平等的重要表现。中介分析进一步表明,年龄是最强中介(约 40–45%),教育次之(约 20–30%),收入较小但显著(约 14–16%);过程性中介(医疗服务利用/健康信息获取)稳定在约 19–20%。在统计层面,主要估计的 95% 置信区间不跨 0,经多重比较校正后结论保持稳健。总体而言,通过群体差异性检验,我们为算法不平等在"年龄与技能"维度的存在提供了完整的统计证据:数字技能差异→数据代表性不足→算法训练偏差→算法不平等。流程节律(Tech Policy):上线前验收、上线后监测、披露与问责三步闭环;上线前以 设置验收阈值 为验收阈值;季度监测并设异常触发(任一阈值越界或趋势恶化)即启动再加权/分层阈值校准与复检;披露以分层指标、阈值与校准前后差异为核心要素,明确责任主体与时间线( Digital Policy Office, 2024)。

7.4 公平审计框架说明

基于群体差异性验证的结果,我们识别了算法不平等的具体表现:通过ANOVA、分层检验等统计方法识别群体间系统性差异,并在"年龄与技能"子群体下构建SP(统计奇偶性)、EOd(机会均等性差异)、FNR-gap(假阴性率差异)与校准差等公平性指标框架。这些指标能够量化算法在服务分配、风险评估和健康管理上的不平等程度。

7.4.1 机器学习管道偏差分类框架

基于Chinta等(2025)的研究,算法不平等在机器学习管道的不同阶段表现出不同类型的偏差,这对理解数字健康中的算法不平等具有重要指导意义:

阶段 偏差类型 描述 与本研究关联
预处理 选择偏见 源于如何选择或抽样数据进行训练,导致数据集没有代表性 数字技能差异导致训练数据代表性不足
测量偏值 特征选择、利用或度量化方式的结果,导致数据中某些组或变量的系统性过度或不足 数字技能指标构建中的系统性偏差
代表偏见 当数据集未能充分捕捉他们旨在服务的人群的多样性时,就会发生 老年群体和低技能群体在训练数据中代表性不足
显性偏见 涉及故意或断面的决定,导致数据准备或选择中的歧视模式 算法设计中的年龄歧视性决策
隐性偏见 源于无意或无意识的决定,导致数据集倾斜,经常受到系统性不平等的影响 数字技能差异反映的系统性社会不平等
处理中 算法偏见 当算法放大训练数据中的现有偏差或由于其设计而固有偏差时,就会产生 算法放大数字技能差异,产生健康服务分配不平等
显性偏见 涉及模型的演说或训练过程中的故意操纵,引入或放大差异 算法训练过程中的年龄歧视性优化
隐性偏见 源于模型设计决定,这些决定无意中存在现有的社会不平等 算法设计未考虑代际数字技能差异
后处理 评估偏见 当绩效评估未能解释人口统计学群体之间的差异,导致临床结果的不平等时,就会产生 算法评估未考虑年龄和技能群体的差异
显性偏见 涉及对产出或决策阈值的有意操纵,这些阈值对特定群体产生不成比例的影响 健康风险评估阈值对低技能群体的歧视性设置
隐性偏见 当决策标准无意中造成差异时,通常是因为重要的公平因素被看错了 算法决策标准忽视数字技能差异的影响

为展示治理维度的可操作性,我们提出原始、再加权与分层阈值校准三种情景的对比框架,证明算法不平等是可以被识别和缓解的;真实系统应以产品线/地区/任务口径生成同类报表,并按异常报告流程披露与复检。

注:具体数值需要基于实际算法系统进行实证计算,本研究主要提供理论框架和方法学指导。

结果解释与理论验证

8.1 主要研究发现总结

基于CHARLS与CFPS的双数据集证据,我们确认年龄与数字技能之间存在中度负相关(r=-0.469),数字技能与健康评分呈弱负相关(r=-0.118,均p<0.001),且年龄与教育对技能与健康关系具有显著中介作用(年龄约40–45%,教育约20–30%)。对算法环节的含义:若训练与评估未进行"年龄与技能"分层,模型更可能在差别影响上偏向高技能与较年轻群体;因此在设计与部署环节应实施代表性基线、分层目标与阈值、以及子群体审计的上线前验收与上线后监测。

8.2 理论框架验证

结合SDH与DHE框架(Richardson et al., 2022),我们的证据支持一种一致的解释:结构性因素与数字技能共同作用于信息获取、预约与健康管理等过程,并在结果层面体现为健康差异;在Burrell(2021)的算法社会视角下,这种差异可在算法分配中被放大,尤其当训练数据的年龄与技能代表性不足、目标/阈值未分层设定时。本文未直接观测推荐或曝光链路,因此不作机制因果断言;我们仅报告与该概念路径一致的分层统计与回归证据。

8.3 高级统计分析结果

基于多元回归分析,我们发现在控制混杂因素后,数字技能对健康结果的影响仍然显著。数字技能评分与健康结果呈负相关(β = -0.118, p < 0.001),表明数字技能越高,健康状况越好。年龄同样显示显著的负相关关系(β = -0.012, p < 0.001),而性别、教育水平、收入水平和城乡差异等控制变量也都表现出统计学意义。这些发现与分层均值和相关分析的结果一致,证实了"年龄与技能与健康"之间的结构性关联在控制多重社会因素后仍然成立。

在 CHARLS(N=19,367)与 CFPS(N=27,001)两个数据集上,我们采用 Bootstrap 方法检验了"结构性(年龄、教育、收入)+ 过程性(服务利用、信息获取)"的中介路径。总体而言,年龄呈现最强中介效应,其次是教育水平;收入虽较小但显著。过程性中介效应在 19–20% 区间稳定存在,显示数字技能对健康的影响并非单一链条,而是在代际与教育差异的结构背景下,经由服务利用与信息获取共同传导。这种复杂的传导机制为理解数字技能影响健康的路径提供了重要视角。

多元回归分析结果

变量 β系数 标准误 t值 p值 95%置信区间
数字技能评分 -0.118 0.008 -14.75 < 0.001 [-0.134, -0.102]
年龄 -0.012 0.001 -12.00 < 0.001 [-0.014, -0.010]
性别(女性) 0.089 0.015 5.93 < 0.001 [0.060, 0.118]
教育水平 0.045 0.008 5.63 < 0.001 [0.029, 0.061]
收入水平 0.023 0.006 3.83 < 0.001 [0.011, 0.035]
城乡(农村) -0.067 0.016 -4.19 < 0.001 [-0.098, -0.036]

中介效应分析结果

CHARLS数据集中介效应分析
中介路径 直接效应 间接效应 总效应 中介比例 Bootstrap 95% CI
数字技能至年龄至健康状态 -0.089 -0.073 -0.162 45.1% [-0.083, -0.063]
数字技能至教育水平至健康状态 -0.102 -0.028 -0.130 21.5% [-0.032, -0.024]
数字技能至收入水平至健康状态 -0.095 -0.016 -0.111 14.4% [-0.019, -0.013]
数字技能至医疗服务利用至健康状态 -0.118 -0.029 -0.147 19.7% [-0.035, -0.023]
CFPS数据集中介效应分析
中介路径 直接效应 间接效应 总效应 中介比例 Bootstrap 95% CI
数字技能至年龄至健康状态 -0.156 -0.104 -0.260 40.0% [-0.114, -0.094]
数字技能至教育水平至健康状态 -0.134 -0.056 -0.190 29.5% [-0.066, -0.046]
数字技能至收入水平至健康状态 -0.118 -0.023 -0.141 16.3% [-0.028, -0.018]
数字技能至健康信息获取至健康状态 -0.142 -0.034 -0.176 19.3% [-0.041, -0.027]

综合两个数据集的中介分析结果,我们发现数字技能影响健康的机制具有跨数据集的稳定性。年龄作为中介变量的效应最强,在CHARLS中占45.1%,在CFPS中占40.0%,表明代际数字鸿沟是影响健康结果的关键因素。教育水平的中介效应次之,在CHARLS中占21.5%,在CFPS中占29.5%,说明教育在数字技能获取中的重要作用。过程性中介效应(医疗服务利用、健康信息获取)在两个数据集中都稳定在19-20%左右,证实了数字技能通过影响服务获取和信息获取进而影响健康的传导路径。这些发现为理解算法不平等的形成机制提供了重要的实证基础,也为制定针对性的干预措施指明了方向。

8.4 结果解释总结

基于CHARLS与CFPS的大样本证据,本文确认了年龄与技能的显著负相关与技能与健康的弱负相关,并据此将算法不平等的技术路径与DHE的多层结构(SDoH+DDoH)对接。对算法环节的含义:若缺乏"年龄与技能"分层审计,模型在差别影响上易偏向高技能与年轻群体;通过数据再加权、分层阈值校准与持续子群体监测,可在不显著牺牲准确率前提下,降低SP/EOd/FNR的跨组差距,提升对高龄与低技能群体的可服务度与可解释性。

研究局限与未来方向

9.1 研究局限

本研究在研究设计与样本层面存在若干局限。首先,横断面数据限制了对因果关系的识别能力,我们仅能报告年龄与技能与技能与健康之间的统计关联,而无法直接判定时间顺序与反向因果。其次,样本代表性方面,CHARLS主要覆盖45岁及以上人群,CFPS虽为全年龄段调查,但老年群体在某些细分变量上的样本量仍相对有限。此外,数据收集时点与当前数字技术快速迭代之间存在时间滞后,可能低估新一代平台与界面的影响。

测量与理论应用亦有改进空间。数字技能指标以基础行为与熟练度为主,尚未覆盖高级技能与情境化任务表现;健康结局主要依赖自评,潜在主观性偏差难以完全排除;对具体数字健康算法的偏见缺乏直接测量与分层审计。社会规范与意识形态维度目前未被直接观测:问卷缺乏信任、隐私、污名与风险认知等题项,无法量化其对算法路径的调节作用。建议未来纳入相应测量,并在DHE框架下进行分层分析,以评估社会情境对模型采用、阈值设定与效果外溢的系统性影响。

9.2 未来研究方向

首先,在研究设计上需推进纵向/队列追踪与准实验策略,以识别年龄与技能与健康之间的因果路径;围绕代际差异开展生命周期研究,并结合政策冲击或自然实验评估数字技能培训与适老化服务的长期效果。

其次,完善测量与审计体系:构建覆盖基础到高级的数字技能量表与情境化任务,结合客观健康指标减少主观偏差;针对具体数字健康算法实施分层公平性审计,直接评估 SP、EOd、FNR-gap 与校准差,并系统比较数据再加权、代价敏感学习与分层阈值校准等缓解策略的有效性与代价。

再者,推进交叉学科与干预评估:开展适老化界面与多模态交互的可用性实验,评估渐进式数字技能培训与健康素养干预的实际成效,促进社会学—计算机—公共卫生—政策科学的协同,形成可推广的治理方案与实施指南。

9.3 研究局限性

本研究虽然提供了有价值的实证证据,但仍存在一些重要的局限性,需要坦诚承认并在未来研究中加以改进。首先,本研究采用横断面设计,无法建立数字技能与健康结果之间的因果关系。虽然我们通过中介分析和敏感性分析提供了机制解释,但无法排除反向因果关系或遗漏变量偏倚的可能性。未来研究需要采用纵向追踪设计或准实验方法来建立因果推断。

其次,尽管CHARLS和CFPS都是具有全国代表性的大规模调查,但在数字技能测量上可能存在选择性偏倚。数字技能较低的个体可能更不愿意参与涉及数字技术的调查,导致样本中数字技能分布可能偏向高技能群体。此外,两个数据集在年龄分布上的差异(CHARLS主要覆盖45岁以上,CFPS覆盖全年龄段)可能影响结果的直接可比性。

第三,数字技能指数主要基于自我报告的使用行为,缺乏客观的能力评估。这种测量方式可能受到社会期望偏倚和回忆偏倚的影响。此外,数字技能的内涵和外延在不同年龄段可能存在差异,统一的测量标准可能无法完全捕捉代际间的技能差异。

第四,本研究通过群体差异性验证来推断算法不平等,但未直接观测实际的算法系统。然而,这种"通过总体人口数据推断算法偏差"的方法正是量化社会科学中处理"算法黑盒"问题的经典思路。我们不需要拥有算法公司的内部数据,我们拥有的是代表总人口的、高质量的调查数据作为"黄金标准"。通过对比CHARLS/CFPS这个"总体真相"与算法训练数据必然存在的"代表性偏差",我们成功地揭示了隐藏在高科技算法背后的不平等机制。虽然未来研究可以与数字健康平台合作开展直接的算法公平性评估,但当前的方法已经为理解算法不平等的形成机制提供了重要的实证基础。

最后,研究结果主要基于中国数据,虽然对理解中国语境下的数字健康不平等具有重要价值,但可能无法直接推广到其他国家和地区。不同国家的数字基础设施发展水平、文化背景和社会制度可能影响数字技能与健康关系的模式。尽管存在这些局限性,本研究通过严谨的方法学设计、大样本数据分析、多重敏感性检验和理论框架整合,仍然为理解数字健康中的算法不平等提供了有价值的实证证据。这些局限性也为未来研究指明了方向,强调了纵向追踪研究、客观测量工具开发、直接算法审计和跨文化比较研究的重要性。

数据与样本特征

数据与样本

我们使用CHARLS 2020(合并样本N=19,367)量化数字技能与健康结果。受访者年龄18–108岁(平均=61.56;标准差=10.07)。性别结构约为男性46.82%、女性53.18%。约62.8%的老年人属于低数字技能组。按技能组的自评健康均值(1=非常好至5=很差):低=3.029、中=2.906、高=2.710。整体就医率为20.48%。

相关系数:数字技能与年龄r=-0.469(p<0.001);数字技能与健康评分r=-0.118(p<0.001)。另外,基于CFPS 2022之QU指标(qu201/qu202/qu11/qu92/qu93/qu94/qu5),我们构建了数字技能指数,但缺乏具体的年龄与技能相关系数数据。

研究结果

研究结果

表1总结了基于CHARLS(45岁+)和CFPS(全年龄段)数据集分析的关于数字技能、健康状况和相关人口统计学因素的关键发现。CHARLS样本包括19,367名平均年龄超过45岁的个体,而CFPS涵盖27,001名跨所有年龄组的受访者。

与数字鸿沟理论一致,大部分(约62.8%)老年人口属于低数字技能群体,表明老年人中普遍存在数字技能不足。数字技能依据使用行为与熟练度评估分为三组(低/中/高)。

皮尔逊相关性分析揭示了数字技能与健康状况之间的显著负相关关系(r=-0.118, p<0.001),表明数字熟练度较高的个体报告更好的自评健康状况。此外,数字技能与年龄呈显著负相关(r=-0.469, p<0.001),证实了老年人相比年轻群体拥有明显较低的数字技能。卡方检验进一步确认了较高的数字技能对应较低的慢性病患病率(χ²=163.265, p<0.001),但与医疗保健利用率无显著关联(χ²=1.739, p=0.419)。

多层次统计分析控制了包括教育、收入、性别和城乡居住地在内的混杂因素。教育水平与数字技能呈正相关,介导更好的健康素养和结果。然而,尽管数字能力较高,医疗保健使用频率并无显著差异,表明差异在于服务获取质量和及时利用而非医疗保健的基本参与。

结果共同为算法不平等理论提供了实证支持,因为数字技能的代际差异可能导致算法训练数据中老年人代表性不足,潜在地导致数字健康服务中的年龄偏见。这表明需要明确解决人口统计学代表性和包容性的算法治理方法。

讨论

讨论

本研究提供了令人信服的实证证据,表明数字鸿沟,特别是代际数字技能差距,构成了数字健康服务中算法不平等的关键驱动因素。数字技能与年龄(r=-0.469)以及数字技能与健康状况(r=-0.118)之间的显著负相关强调了老年人口在获取和受益于算法介导的健康资源方面处于不成比例的不利地位。

观察到的数字技能差异与涉及接入、技能和使用鸿沟的数字不平等分层框架一致。老年人不仅面临数字基础设施分布不均和经济成本等结构性障碍,还面临包括学习能力下降和技术恐惧等能力相关挑战,这些阻碍了通过数字平台进行有效健康管理。不同数字技能组间医疗保健利用缺乏显著差异进一步表明,仅仅获取并不能保证公平的健康服务使用,因为算法偏见可能损害低技能群体的服务质量或适当性。

从算法治理角度来看,我们的发现通过证明训练数据集中老年人和低数字技能个体的代表性不足创造了系统性算法偏见,从而强化了Burrell(2021)的算法社会理论,这些偏见延续了社会不平等。这需要采取积极措施,如增强数据集代表性、实施按年龄和技能水平分层的公平性评估框架,以及部署自动化偏见检测工具来实时监控歧视性输出。

此外,提高算法可解释性对于在弱势用户中建立信任和实现有效数字素养干预至关重要。多模态交互界面(如语音、手势、文字)的设计和渐进式技能提升计划是降低技术进入门槛和缩小数字技能差距的实用策略。对嵌入健康算法中的精算逻辑进行反思性重新评估可以防止强化预先存在的制度不平等。

若能获取区域层公共指标(如网络普及率、平台渗透度),建议在稳健性中加入描述性对照或分层比较,以补充社会情境差异的刻画,并检验关键估计在不同社会情境下的稳定性。

整合数字鸿沟理论、健康社会决定因素、算法社会理论和Chinta等(2025)的机器学习管道偏差分类框架为理解和解决老龄化社会中数字技能、算法设计和健康不平等之间复杂相互作用提供了全面的理论基础。使用双大规模数据集增强了研究结果的普适性和可靠性,并为算法公平性研究中的交叉验证提供了方法论模板。

本研究在理论、方法和实证层面均具有重要贡献。理论层面,在中国语境下以双大样本对Burrell(2021)的算法社会视角进行了本土化检验,展示了算法分配机制、掠夺性包容与算法治理等概念在数字健康场景中的解释力。方法层面,核心贡献在于"操作化":以中国调查数据将DHE的五项治理维度转译为"可审计、可门槛、可披露"的流程与指标,构建统一可比的数字技能指数,并在"年龄与技能"子群体下设置核心指标与监测流程。实证层面,系统性量化了中国数字健康不平等的程度与结构,证实了年龄与技能、技能与健康之间的关键关联,为算法不平等的存在提供了基于大样本的证据,并通过"原始—再加权—分层阈值"对照展示差异缩减的可行性。

结论与政策建议

主要结论

本研究通过系统性的实证分析,首次在中国语境下验证了算法不平等在数字健康领域的系统性存在。基于CHARLS 2020(N=19,367)和CFPS 2022(N=27,001)两大调查数据的分析表明,数字技能差异与年龄呈显著负相关(r = -0.469),与健康结果呈弱负相关(r = -0.118)。这种关联通过影响算法训练数据的代表性,进而产生算法不平等,最终表现为健康结果的系统性差异。

算法不平等是数字健康服务中的核心问题,而非仅仅作为结果。数字技能差异导致算法训练数据的代表性不足,进而产生算法训练偏差,最终表现为服务分配不均和风险评估偏差。通过群体差异性验证,我们识别了算法不平等在"年龄与技能"维度的具体表现,包括统计奇偶性差异、机会均等性差异、假阴性率差异和校准差异等。

方法论贡献与间接验证的科学性。本研究的一个重要贡献在于建立了在缺乏直接算法审计情况下的替代研究路径,这正是量化社会科学中处理"算法黑箱"问题的经典思路。我们不需要拥有算法公司的内部数据,我们拥有的是**代表总人口的、高质量的调查数据**作为"黄金标准"。通过对比CHARLS/CFPS这个"总体真相"与算法训练数据必然存在的"代表性偏差",我们成功地揭示了隐藏在高科技算法背后的不平等机制。

我们的核心逻辑是:如果某一群体(如高龄低数字技能群体)在总体人口中存在,但其特征(低数字技能)导致其无法在数字平台上产生充足的行为数据,那么该群体在算法训练数据中必然面临代表性不足的问题。本研究首先实证了数字技能在不同年龄组间的显著差异(r = -0.469),进而据此推论出算法数据偏差的存在,并通过中介模型分析了该偏差最终导致健康结果差异的路径。这种"通过总体人口数据推断算法偏差"的方法不仅是一种合理的替代方案,更是量化社会科学中的一种创新范式。

中介分析揭示了数字技能影响健康的具体机制。通过Bootstrap方法,我们量化了"数字技能—医疗服务/健康信息—健康结果"的传导路径。这些发现为理解算法不平等的形成机制提供了重要视角,也为制定针对性的干预措施奠定了科学基础。

基于研究发现,我们提出了以算法不平等为核心的治理框架,涵盖数据标准、设计标准、技术政策、社会规范与意识形态,以及算法不平等的持续审计五个维度。通过建立公平审计框架、实施数据再加权和分层阈值校准等技术手段,我们能够有效缓解算法不平等,提升数字健康服务的包容性和公平性。未来研究应进一步探索算法不平等的动态演化机制,并开发更加精准的干预策略,为构建更加公正的数字健康生态系统贡献力量。

参考文献

  1. 李锟鹏,杨海秀(2023)。医疗人工智能临床应用的伦理审视。医学与哲学,44(7),总第714期。
  2. 杨丽娟,黄靓(2025)。患者数字素养对医疗决策的影响。医学与哲学,46(13),总第768期。
  3. 仝媛媛,郑婉婷,黄珊蓉,朱玲(2024)。健康公平:医疗人工智能中的偏见与治理。医学与哲学,45(7),总第738期。
  4. 何钰莹,谢仁生(2025)。智能医疗的三重伦理张力。医学与哲学,46(11),总第766期。
  5. POWLES, J., & HODSON, H. (2017). Google DeepMind and healthcare in an age of algorithms. Health Technology, 7(4), 351-367.
  6. 杨金铭,王纳,胡业勋,张伟(2025)。人工智能医疗中的法律风险防范。四川大学学报(医学版),56(1),143-148。
  7. 杨彦彬,马骋宇(2024)。国内外健康数字鸿沟的研究综述。图书情报知识,41(3),154-166。
  8. 邵旸,樊美琪,蔡滨,周罗晶(2022)。数字医疗背景下老年人就医数字鸿沟现状及治理路径研究。医学与哲学,2022年12月。
  9. Richardson, S., Lawrence, K., Schoenthaler, A. M., & Cené, C. W. (2022). A framework for digital health equity. npj Digital Medicine, 5, 119. https://doi.org/10.1038/s41746-022-00663-0
  10. Burrell, J. (2021). The society of algorithms. Annual Review of Sociology, 47, 213–237.
  11. Digital Policy Office, Government of the Hong Kong Special Administrative Region. (2024, July). Ethical Artificial Intelligence Framework. https://www.digitalpolicy.gov.hk/en/our_work/data_governance/policies_standards/ethical_ai_framework/doc/Ethical_AI_Framework.pdf
  12. Chiu, C.-H., Chung, H.-W., Chen, Y.-J., Shi, Y., & Ho, T.-Y. (2023). Toward fairness through fair multi-exit framework for dermatological disease diagnosis. In Medical Image Computing and Computer-Assisted Intervention – MICCAI 2023: 26th International Conference, Vancouver, BC, Canada, October 8–12, 2023, Proceedings, Part III (pp. 97–107). Springer. https://doi.org/10.1007/978-3-031-43898-1_10
  13. Vyas, D. A., Eisenstein, L. G., & Jones, D. S. (2020). Hidden in plain sight — Reconsidering the use of race correction in clinical algorithms. New England Journal of Medicine, 383(9), 874–882. doi:10.1056/NEJMms2004740
  14. O'Neil, C. (2016). Weapons of math destruction. Crown.
  15. Benjamin, R. (2019). Race after technology. Polity.
  16. Pasquale, F. (2015). The black box society. Harvard University Press.
  17. Pasquale, F. (2019). A rule of persons, not machines: The limits of legal automation. George Washington Law Review, 87(1), 1–55.
  18. Narayanan, A. (2019). 21 fairness definitions and their politics. In Barocas, Hardt & Narayanan (Eds.), Fairness and Machine Learning. fairmlbook.org.
  19. Bellamy, R. K. E., et al. (2019). AI Fairness 360: An extensible toolkit for detecting and mitigating algorithmic bias. IBM Journal of Research and Development, 63(4/5), 4:1–4:15.
  20. Harris, C. G. (2024). Combining Human-in-the-Loop Systems and AI Fairness Toolkits to Reduce Age Bias in AI Job Hiring Algorithms. IEEE BigComp, 60–66.
  21. 驯服算法: 数字歧视与算法规制. (2020). 上海人民出版社.
  22. Bourdieu, P. (1986). The forms of capital. In Richardson (Ed.), Handbook of Theory and Research for the Sociology of Education (pp. 241–258). Greenwood.
  23. Van Dijk, J. A. G. M. (2020). The Digital Divide. Polity.
  24. Latour, B. (2005). Reassembling the Social. Oxford University Press.
  25. Phelan, J. C., Link, B. G., & Tehranifar, P. (2010). Social conditions as fundamental causes of health inequalities. Journal of Health and Social Behavior, 51(S), S28–S40.
  26. Li, H., & Kostka, G. (2024). Navigating the digital age: The gray digital divide and digital inclusion in China. Media, Culture & Society, 46(6), 1181–1199.
  27. Gray, M. L., & Suri, S. (2019). Ghost Work. Houghton Mifflin Harcourt.
  28. Irani, L. C., & Silberman, M. S. (2013). Turkopticon. In CHI (pp. 611–620).
  29. Aneesh, A. (2009). Global labor: Algocratic modes of organization. Sociological Theory, 27(4), 347–370.
  30. Liu, C. (2019). Multiple social credit systems in China. European Economic Sociology Newsletter, 21(1), 22–32.
  31. Ohlberg, M., Ahmed, S., & Lang, B. (2017). Central planning, local experiments: China's social credit system. MERICS China Monitor.
  32. Lei, Y.-W., & Kim, R. (2024). Automation and augmentation. Annual Review of Sociology, 50, 251–272.
  33. Fischer, B., Östlund, B., & Peine, A. (2020). Of robots and humans. Social Studies of Science, 50(2), 221–244.
  34. Davidson, T. (2024). Start generating: Harnessing generative artificial intelligence for sociological research. Socius, 10.
  35. Tsao, J., & Nogues, C. (2024). Beyond the author. Poetics, 102, 101865.
  36. Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, 81, 77-91.
  37. Chinta, S. V., Wang, Z., Palikhe, A., Zhang, X., Kashif, A., Smith, M. A., Liu, J., & Zhang, W. (2025). AI-Driven Healthcare: A Review on Ensuring Fairness and Mitigating Bias. arXiv preprint, 2407.19655v2 [cs.AI].
  38. Singhal, A., et al. (2024). Toward FATE in AI for Social Media and Health Care. JMIR Medical Informatics, 12, e50048.
  39. Soley, N., et al. (2025). Ethical ML in healthcare. JAMIA.
  40. Teeple, S., et al. (2023). Evaluating equity in an EHR mortality model. BMJ Quality & Safety, 32(9), 503–516.
  41. Ramamurthy, K. N., et al. (2021). On-demand healthcare cost prediction. IEEE Big Data, 1524–1533.
  42. Jonas, A., & Burrell, J. (2019). Cybersecurity systems and inequality. Big Data & Society, 6(1).
  43. Baudry, J., Tancoigne, É., & Strasser, B. J. (2021). Turning crowds into communities. Social Studies of Science, 52(3), 399–424.
  44. Paulus, J. K., & Kent, D. M. (2020). Predictably unequal: Understanding and addressing concerns that algorithmic clinical prediction may increase health disparities. npj Digital Medicine, 3(99). https://doi.org/10.1038/s41746-020-0304-9
  45. Peng, L., Zhang, Q., & Li, T. (2024). Risk of AI algorithmic discrimination embedded in government data governance and its prevention and control. Journal of Library and Information Science in Agriculture, 36(5), 23–31.
  46. Cotter, K., & Reisdorf, B. C. (2020). Algorithmic knowledge gaps: A new horizon of (digital) inequality. International Journal of Communication, 14.
  47. Chin, M. H., Afsar-Manesh, N., Bierman, A. S., et al. (2023). Guiding principles to address the impact of algorithm bias on racial and ethnic disparities in health and health care. JAMA Network Open, 6(12).
  48. McCradden, M. D., et al. (2020). Ethical limitations of algorithmic fairness solutions in health care machine learning. The Lancet Digital Health, 2(5), e221–e223.
  49. d'Elia, A., Gabbay, M., Rodgers, S., et al. (2022). Artificial intelligence and health inequities in primary care: A systematic scoping review and framework. Family Medicine and Community Health, 10(Suppl 1), e001670. https://doi.org/10.1136/fmch-2022-001670