• 回答数

    3

  • 浏览数

    178

冷火秋烟
首页 > 论文发表 > 发表图像分类相关论文

3个回答 默认排序
  • 默认排序
  • 按时间排序

大能苗*

已采纳

SDNET: MULTI-BRANCH FOR SINGLE IMAGE DERAINING USING SWIN 最近,流行的transformer具有全局计算特性,可以进一步促进图像去雨任务的发展。本文首次将Swim-transformer引入图像去雨领域,研究了Swim-transformer在图像去雨领域的性能和潜力。具体来说,我们对Swim-transformer的基本模块进行了改进,设计了一个三分支模型来实现单幅图像的去雨。前者实现了基本的雨型特征提取,而后者融合不同的特征进一步提取和处理图像特征。此外,我们还采用jump connection来融合深层特征和浅层特征。实验表明,现有的公共数据集存在图像重复和背景相对均匀的问题。因此,我们提出了一个新的数据集Rain3000来验证我们的模型。 Transformer[28]最初是自然语言处理(NLP)领域的一个模型,用于并行处理单词向量,以加速模型推理。它的全局计算特性适用于远距离传递特征。这正是计算机视觉领域中卷积运算所不擅长的。Dosovitskiy等人[29]将图像分割成16x16个图像块,将不同的图像块作为不同的词输入到transformer中,提高了图像分类的精度。近年来,人们从深度[30]、多尺度[31]等角度应用transformer来完成相关任务。然而,Transformer也有不可忽视的缺点,例如计算量与图像大小之间存在二次关系,这限制了它的应用环境。Liu等人[32]提出的Swin-transformer使用滑动窗口使模型具有线性计算复杂度,通过跨窗口连接改善了窗口间的信息交换,最终提高了模型在图像分类、目标检测和实例分割等方面的性能。 本文提出了一种新的图像去雨网络SDNet,它是利用Swim-transformer强大的特征表示能力构建的端到端去雨网络。具体地说,我们改进了Swim-transformer的基本模块,重新设计了一个双分支模型,实现了单图像去雨。前者实现了基本的雨型特征提取,后者融合了不同分支的特征。此外,我们采用jump connection来融合深度特征和浅层特征,以提高网络模型的性能。 本文贡献如下: 最近有大量的研究工作将transformer引入CV域,并取得了良好的效果。具体来说,Dosovitskiy等人[29]将图像分成16X16个图像块,然后将其拉伸成一维向量,然后送入网络中完成图像分类任务。Chen等人[38]提出了一种基于卷积运算的transformer与Unet相结合的TransUnet方法,实现医学图像的分割。蒋等[39]设计了与对抗生成网络结构相同的图像生成transformer。transformer中的self-attention导致模型计算直线增长,导致transformer不能在低计算能力的硬件上运行。Liu[32]提出了一种利用滑动窗口方法使网络计算线性增长并加速网络推理的方法。我们的方法是基于这种方法来实现一个单一的图像去雨任务的融合特征。 本文的方法是基于这种方法[32]来实现一个单一的图像去雨任务,融合不同分支的特征、深度特征和浅层特征。 Transformer是一个功能强大的网络模块,可以取代CNN操作。但其中的Muti-Head Attention导致模型的计算量迅速增加,导致transformer模型无法在许多底层硬件中测试和使用,注意力的数学表达式如下:本文使用一个简单而强大的前馈网络作为主干,如图2所示。SDnet网络基本上由三个多分支融合模块组成,称为MSwt,一个多分支模块MSwt-m和两个基本block模块。此外,还增加了跳转连接,目的是融合深特征和浅特征,以提高网络去雨的性能。为了更灵活地构建网络,提出了Basic-block的概念,并设计了两个三分支特征融合块。如图4和图5所示,与后者相比,前者有一个用于融合特征的附加基本块。数学表达式如下: 其中F(·)表示基本块的操作。x表示模块Mswt的输入。这种设计的思想来源于自我注意中的多头注意机制。通过学习F1、F2、F3,可以自适应地学习不同的特征。将输入映射到不同的子空间,分别提取不同的特征。与自我注意不同的是,我们对提取的特征求和,而不是级联操作。通过F4融合增加的特征,实现进一步的特征提取。由于设计思想来源于多头注意机制,多分支具有与该机制相同的特点,即在一定范围内,分支越多,模型性能越好。为了平衡模型的规模和模型的性能,我们选择了三个分支进行特征提取。 虽然transformer可以保持特征在长距离传播,但是仍然需要在网络中结合深特征和浅特征,为此我们设计了一个没有特征融合的Mswt模块,我们称之为Mswt-m,如图5所示,其数学表达式如下: F1、F2、F3将输入映射到三个不同的空间进行特征提取,对提取的特征求和,然后与第二个Mswt模块的输出求和,再经过一个基本块,实现深度特征和浅层特征的融合,如图2中的小跳跃连接所示,而图2中相对较长的跳跃连接则考虑了主要特征中包含的丰富的空间和纹理信息,有助于完成深度特征中缺失的纹理信息。 其中,O为雨图像,B为对应标签。是绝对差(SAD)之和,用于计算相似预测图像和标签之间的像素损失,如等式6所示。SSIM(结构相似性)是结构相似性,最初用作评估两个图像内容的结构相似性的度量。Ren等人[41]证明了SSIM作为损失函数在图像降额任务中的有效性的负面作用,其数学表达式如等式7所示。尽管使用该损失函数可以获得高SSIM度量,但图像仍然存在失真和低峰值信噪比(PSNR)。identity loss(等式8)由CycleGAN[42]导出,CycleGAN[42]用于约束生成图像的颜色丢失,这里我们使用它来约束图像去雨后的图像样式,这减少了图像失真,提高了网络性能。α , β , λ 是SAD损失、SSIM损失和identity loss的系数。在本文中,分别设置为0.2、4和1。 实验使用Tesla V100 16G GPU进行训练,使用Pytorch框架1.7.0和(Adam)[43],初始学习率为5× 10−4,减少到5× 10−5和5× 10−6当训练迭代次数分别为总迭代次数的3/5和4/5时。输入模型的图像大小设置为231×231. batch size为5。 我们提出了一个全新的数据集用于网络训练和消融实验。该数据集是从ImageNet中随机抽取的10万幅图像,保证了图像的多样性。从Efficientderain[12]降雨模式数据集中随机选择一到四种降雨模式,并添加到选定的图像中。我们最终选择了3000张合成图像作为训练集,400张作为测试集。我们把这个数据集命名为Rain3000。此外,我们还使用公开的数据集Rain100L和Rain100H[44]来验证SDnet模型。两个公开的数据集都包含1800个训练图像和200个测试图像。 使用SSIM和PSNR作为评价指标,这两种指标已被广泛用于评价预测图像的质量。PSNR是根据两幅图像之间的像素误差来计算的,误差越小,值越大,图像越相似,除雨效果越好。相反,图像去雨的效果越差 首先,本文提出了一种基于Swin-transformer的三分支端到端除雨网络,它充分利用了Swin-transformer强大的学习能力,用一种改进的Swin-transformer代替卷积运算,并设计了一个多分支模块来融合不同空间域的信息,使用跳转连接来融合深特征和浅特征。此外,我们提出了一个新的数据集,由3000个训练对和400个测试对组成。该数据集是基于ImageNet生成的,具有丰富的背景和雨型组合,便于模型的推广。我们提出的模型在数据集Rain3000和公共数据集Rain100L、Rain100H上都达到了最佳性能。我们的工作还有些不足。例如,在参数数目相同的情况下,哪种方法更适合于并行或串行的图像去噪任务还没有详细探讨。以及是否可以使用多个不同大小的滑动窗口来实现窗口间的进一步信息交换,以提高网络降容的性能。此外,我们正在使用更简单的前馈网络,更复杂的网络仍然值得研究

332 评论

吕鹤是谁

随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。我整理了图像识别技术论文,欢迎阅读!

图像识别技术研究综述

摘要:随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。图像识别是利用计算机对图像进行处理、分析和理解,由于图像在成像时受到外部环境的影响,使得图像具有特殊性,复杂性。基于图像处理技术进一步探讨图像识别技术及其应用前景。

关键词:图像处理;图像识别;成像

中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2013)10-2446-02

图像是客观景物在人脑中形成的影像,是人类最重要的信息源,它是通过各种观测系统从客观世界中获得,具有直观性和易理解性。随着计算机技术、多媒体技术、人工智能技术的迅速发展,图像处理技术的应用也越来越广泛,并在科学研究、教育管理、医疗卫生、军事等领域已取得的一定的成绩。图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等,在这些应用中,都离不开图像处理和识别技术。图像处理是指用计算机对图像进行处理,着重强调图像与图像之间进行的交换,主要目标是对图像进行加工以改善图像的视觉效果并为后期的图像识别大基础[1]。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。但是由于获取的图像本事具有复杂性和特殊性,使得图像处理和识别技术成为研究热点。

1 图像处理技术

图像处理(image processing)利用计算机对图像进行分析,以达到所需的结果。图像处理可分为模拟图像处理和数字图像图像处理,而图像处理一般指数字图像处理。这种处理大多数是依赖于软件实现的。其目的是去除干扰、噪声,将原始图像编程适于计算机进行特征提取的形式,主要包括图像采样、图像增强、图像复原、图像编码与压缩和图像分割。

1)图像采集,图像采集是数字图像数据提取的主要方式。数字图像主要借助于数字摄像机、扫描仪、数码相机等设备经过采样数字化得到的图像,也包括一些动态图像,并可以将其转为数字图像,和文字、图形、声音一起存储在计算机内,显示在计算机的屏幕上。图像的提取是将一个图像变换为适合计算机处理的形式的第一步。

2)图像增强,图像在成像、采集、传输、复制等过程中图像的质量或多或少会造成一定的退化,数字化后的图像视觉效果不是十分满意。为了突出图像中感兴趣的部分,使图像的主体结构更加明确,必须对图像进行改善,即图像增强。通过图像增强,以减少图像中的图像的噪声,改变原来图像的亮度、色彩分布、对比度等参数。图像增强提高了图像的清晰度、图像的质量,使图像中的物体的轮廓更加清晰,细节更加明显。图像增强不考虑图像降质的原因,增强后的图像更加赏欣悦目,为后期的图像分析和图像理解奠定基础。

3)图像复原,图像复原也称图像恢复,由于在获取图像时环境噪声的影响、运动造成的图像模糊、光线的强弱等原因使得图像模糊,为了提取比较清晰的图像需要对图像进行恢复,图像恢复主要采用滤波方法,从降质的图像恢复原始图。图像复原的另一种特殊技术是图像重建,该技术是从物体横剖面的一组投影数据建立图像。

4)图像编码与压缩,数字图像的显著特点是数据量庞大,需要占用相当大的存储空间。但基于计算机的网络带宽和的大容量存储器无法进行数据图像的处理、存储、传输。为了能快速方便地在网络环境下传输图像或视频,那么必须对图像进行编码和压缩。目前,图像压缩编码已形成国际标准,如比较著名的静态图像压缩标准JPEG,该标准主要针对图像的分辨率、彩色图像和灰度图像,适用于网络传输的数码相片、彩色照片等方面。由于视频可以被看作是一幅幅不同的但有紧密相关的静态图像的时间序列,因此动态视频的单帧图像压缩可以应用静态图像的压缩标准。图像编码压缩技术可以减少图像的冗余数据量和存储器容量、提高图像传输速度、缩短处理时间。

5)图像分割技术,图像分割是把图像分成一些互不重叠而又具有各自特征的子区域,每一区域是像素的一个连续集,这里的特性可以是图像的颜色、形状、灰度和纹理等。图像分割根据目标与背景的先验知识将图像表示为物理上有意义的连通区域的集合。即对图像中的目标、背景进行标记、定位,然后把目标从背景中分离出来。目前,图像分割的方法主要有基于区域特征的分割方法、基于相关匹配的分割方法和基于边界特征的分割方法[2]。由于采集图像时会受到各种条件的影响会是图像变的模糊、噪声干扰,使得图像分割是会遇到困难。在实际的图像中需根据景物条件的不同选择适合的图像分割方法。图像分割为进一步的图像识别、分析和理解奠定了基础。

2 图像识别技术

图像识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别[3]。前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。图像识别技术对图像中个性特征进行提取时,可以采用模板匹配模型。在某些具体的应用中,图像识别除了要给出被识别对象是什么物体外,还需要给出物体所处的位置和姿态以引导计算初工作。目前,图像识别技术已广泛应用于多个领域,如生物医学、卫星遥感、机器人视觉、货物检测、目标跟踪、自主车导航、公安、银行、交通、军事、电子商务和多媒体网络通信等。主要识别技术有:

2.1 指纹识别

指纹识别是生物识别技术中一种最实用、最可靠和价格便宜的识别手段,主要应用于身份验证。指纹识别是生物特征的一个部分,它具有不变性:一个人的指纹是终身不变的;唯一性:几乎没有两个完全相同的指纹[3]。一个指纹识别系统主要由指纹取像、预处理与特征提取、比对、数据库管理组成。目前,指纹识别技术与我们的现实生活紧密相关,如信用卡、医疗卡、考勤卡、储蓄卡、驾驶证、准考证等。

2.2 人脸识别 目前大多数人脸识别系统使用可见光或红外图像进行人脸识别,可见光图像识别性能很容易受到光照变化的影响。在户外光照条件不均匀的情况下,其正确识别率会大大降低。而红外图像进行人脸识别时可以克服昏暗光照条件变化影响,但由于红外线不能穿透玻璃,如果待识别的对象戴有眼镜,那么在图像识别时,眼部信息全部丢失,将严重影响人脸识别的性能[4]。

2.3 文字识别

文字识别是将模式识别、文字处理、人工智能集与一体的新技术,可以自动地把文字和其他信息分离出来,通过智能识别后输入计算机,用于代替人工的输入。文字识别技术可以将纸质的文档转换为电子文档,如银行票据、文稿、各类公式和符号等自动录入,可以提供文字的处理效率,有助于查询、修改、保存和传播。文字识别方法主要有结构统计模式识别、结构模式识别和人工神经网络[5]。由于文字的数量庞大、结构复杂、字体字形变化多样,使得文字识别技术的研究遇到一定的阻碍。

3 结束语

人类在识别现实世界中的各种事物或复杂的环境是一件轻而易举的事,但对于计算机来讲进行复杂的图像识别是非常困难的[6]。在环境较为简单的情况下,图像识别技术取得了一定的成功,但在复杂的环境下,仍面临着许多问题:如在图像识别过程中的图像分割算法之间的性能优越性比较没有特定的标准,以及算法本身存在一定的局限性,这使得图像识别的最终结果不十分精确等。

参考文献:

[1] 胡爱明,周孝宽.车牌图像的快速匹配识别方法[J].计算机工程与应用,2003,39(7):90—91.

[2] 胡学龙.数字图像处理[M].北京:电子工业出版社,2011.

[3] 范立南,韩晓微,张广渊.图像处理与模式识别[M].北京:科学出版社,2007.

[4] 晓慧,刘志镜.基于脸部和步态特征融合的身份识别[J].计算机应用,2009,1(29):8.

[5] 陈良育,曾振柄,张问银.基于图形理解的汉子构型自动分析系统[J].计算机应用,2005,25(7):1629-1631.

[6] Sanderson C,Paliwal K K.Information Fusion and Person Verification Using Speech & Face Information[C].IDIAP-RR 02-33,Martigny,Swizerland,2002.

点击下页还有更多>>>图像识别技术论文

314 评论

山里吃吃

自己很早就看到过这篇论文了,论文中的工作和我的一个项目也是有很多共通之处,但是自己实力不够也没有想法去把它们全部总结下来,只能在此膜拜一下大佬。 自从2012年AlexNet在图像分类任务上大放异彩后,深度卷积神经网络已经成为图像分类任务上最有效的方法,在ImageNet上的准确率也从62.5%提升至82.7%。然而这些提升不仅仅是网络结构上的改进,还有很多训练策略上的改进,如损失函数、数据预处理、优化方法等,但是这些改进的关注度却非常低,有些重要的tricks甚至只能在源码中找到。本论文总结了一个技巧大礼包,通过和baseline对比,评估这些技巧的有效性。同样的,关于这些技巧的结论也适用于其他计算机视觉任务,比如目标检测、语义分割、实例分割等等。 baseline的训练方法主要是参考Resnet的训练过程。 近些年来,硬件(GPU)上发展迅速,所以在权衡性能上的选择也发生了改变。现在在训练时会去选择使用低数值精度和更大的batch size。 对于同样个数的epoch,大的batch_size效果不如小的batch_size。可以用以下启发式方法来解决这个问题 通常神经网络都是用32位浮点型(FP32)精度训练,也就是说所有参数的存储和运算都是用FP32。然而当前的新硬件支持更低精度的数据类型。比如V100用FP32能提供14TFLOPS,但是用FP16能提供100TFLOPS。在V100上从FP32切换到FP16后,整体训练速度加快了2到3倍。(本人不太了解混合精度训练,论文里也只是简单提了几句,大概看了一下百度的那篇混合精度论文,有误的话请指正) 尽管使用FP16可以大大加快训练速度,但是有些梯度在FP16范围之外,如果用FP16进行更新,梯度都会是0,无法正常训练。所以这里主要有两个方法: 模型调整是对网络体系结构的微小调整,例如改变特定卷积层的步幅。这种调整通常几乎不会改变计算复杂性,但可能对模型精度产生不可忽略的影响。在本节中,我们将使用ResNet作为示例来研究模型调整的影响。 ResNet由一个输入主干,后续的四个阶段和一个输出层组成。 ResNet有两个流行的调整,在这里我们分别成为ResNet-B和ResNet-C,我们也提出了一个新的模型调整,ResNet-D。 使用第三节提到的BS=1024,精度为FP16的ResNet50进行实验。ResNet50和ResNet50-D的浮点数计算成本差异在15%内,在训练过程中,ResNet50-D仅仅只慢了3%,精度提升了1%。我自己也大概计算了一下将用3个3x3替代一个7x7增加的FLOPs。(不包含bias,BN,ReLu等计算)本节进一步介绍提高模型精度的四种训练策略的改进。 在训练过程中,学习率是一个至关重要的参数,在使用warm up后,我们通常会随着训练进程,逐步降低学习率。广泛使用的策略是学习率指数衰减。在ResNet中是每30轮降低0.1,称之为step decay;在Inception中是每两轮降低0.94。另一种策略是2016年提出的学习率余弦衰减。简化版本是通过余弦函数将学习速率从初始值降低到0。从上图可以看出,起初余弦衰减的学习率缓慢下降,在中间部分几乎是线性下降,在最后又缓慢下降。(但是似乎准确率没有提升,而且也没有加速收敛,只是验证准确率曲线更加平滑) 图像分类网络的最后一层通常是全连接层。由 表示 类的预测得分,可以通过 算子对这些得分进行归一化得到预测概率。总共有 类, 类的概率 可以通过以下公式计算:另外,如果图像的真实标签是 ,我们可以得到分布 : 负交叉熵计算(论文中此处公式有误): 通过训练,使得 两个分布越来越接近。损失计算也可以转换为下式: 所以最优解是 ,同时保持其他值很小。换句话说,这样做也鼓励输出的分数有显著区别,从而可能导致过拟合(通过softmax学到的模型太自信了)。 标签平滑的想法首先被提出用于训练Inception-v2,它改变了真实概率 的分布: 其中 是一个常数,所以最后的解为: 其中 可以是任意实数。这样可以调整全连接层的输出,得到更好的泛化能力。 在知识蒸馏中,我们使用教师模型来帮助训练当前模型,这被称为学生模型。教师模型通常是具有更高准确度的预训练模型,因此通过模仿,学生模型能够在保持模型复杂性相同的同时提高其自身的准确性。一个例子是使用ResNet-152作为教师模型来帮助培训ResNet-50。 在训练期间,我们添加蒸馏损失来惩罚教师模型的Softmax出书和学生模型之间的差异。给定输入,假设 是真实概率分布,并且 分别是学生模型和教师模型最后全连接层的输出。我们之前是使用负交叉熵损失 来衡量 之间的差异。加上只是蒸馏后,其损失函数变为:2017年提出的mixup。每次随机选两个样本作为一个样本对 ,然后通过这一个样本对,生成一个新的样本:这里作者没有提及采用mix up后损失函数计算方法的改变,我补充一下: 知乎的讨论---如何评价mixup: BEYOND EMPIRICAL RISK MINIMIZATION? 我们设置 用于标签平滑,使用 用于知识蒸馏,对于ResNet152-D模型,同时使用余弦学习率衰减和标签平滑作为教师网络。在mix up 中,我们在Beta分布中选择 ,并且将训练轮数由120增加到200,因为mix up要求使用更多的轮数才能够更好的收敛。当我们同时使用mix up 和知识蒸馏时,教师网络也会使用mix up进行训练。 知识蒸馏在ResNet上运行良好,但是它在Inception-V3和MobileNet上运行不佳。我们的解释是,教师模型不是来自学生的同一个家庭,因此在预测中有不同的分布,并对模型带来负面影响。 迁移学习是图像分类模型的一个主要用途,我们在选择了两个重要的计算机视觉任务:物体检测和语义分割,通过改变基本模型来评估他们的性能。 我们分别使用VOC 2007 trainval和VOC 2012 trainval的联合集进行培训,并使用VOC 2007测试进行评估。我们在这个数据集上训练了Faster-RCNN,其中包括来自Detectron的改进,例如线性warm up 和 long training schedul。将Faster-RCNN的基础网络替换,保持其他设置相同,因此收益仅来自于模型。ImageNet上精度为79.29%的最佳基础模型在VOC上的最佳mAP为81.33%,优于标准模型4% 我们使用完全卷积网络FCN在ADE20K 数据集上训练模型,在Stage3和Stage4中使用扩张卷积。与我们在物体检测上的结果相矛盾,余弦学习速率表有效地提高了FCN性能,而其他改进则没有效果。对该现象的潜在解释是语义分割在像素级别中预测。虽然使用标签平滑,蒸馏和mix up 的模型有利于软化标签,但模糊的像素级信息可能会降低精度。 在本文中,我们调查了十几个技巧,以训练深度卷积神经网络,以提高模型的准确性。这些技巧为模型架构,数据预处理,损失函数和学习速率进行了微小的修改。我们在ResNet-50,Inception-V3和MobileNet上的实证结果表明,这些技巧可以始终如一地提高模型精度。更令人兴奋的是,将所有这些堆叠在一起可以显着提高准确性。此外,这些改进的预训练模型在转移学习中显示出强大的优势,这改善了对象检测和语义分割。我们相信,这种优势可以扩展到更广泛的领域。 作者总结了一大堆技巧,并且对于这些技巧都做了足够的实验,可以将其作为一本指导手册,帮助自己在以后训练网络的过程中少踩坑。其中每一个tricks在本文中也只是简单交代,想要了解更多的细节还需要去找相关论文继续深入。

105 评论

相关问答

  • 图像相关期刊投稿经验总结

    IEEE Trans. On Image Processing(简称TIP)是图像处理领域top期刊之一,对研究的创新性和完整性要求比较高。 论文初步上传后,有

    侠女游浆糊 4人参与回答 2023-12-06
  • 图像相关期刊投稿

    推荐《自动化学报》,属于EI期刊,简介如下: 《自动化学报》(ACTA AUTOMATICA SINICA)是由中国自动化学会、中国科学院自动化研究所共同主办的

    优优妈妈0509 3人参与回答 2023-12-11
  • 图像相关期刊投稿要求高吗

    color Research & Application是视觉设计中比较权威的期刊。 论文作者可以通过 Wiley-Blackwell's Author Ser

    独家记忆159 4人参与回答 2023-12-09
  • 发表图像分类相关论文

    SDNET: MULTI-BRANCH FOR SINGLE IMAGE DERAINING USING SWIN 最近,流行的transformer

    冷火秋烟 3人参与回答 2023-12-11
  • 图像分类如何发表论文

    第一步论文查重。之所以放在第一步,是因为期刊天空一直都建议作者投稿前查重,这样既能提前发现自己论文重复率多少,又不会给杂志社编辑造成不良印象,更减少了投稿后再查

    柚子chatmonkey 5人参与回答 2023-12-08