<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[新晴心情]]></title><description><![CDATA[哈喽~欢迎光临]]></description><link>https://tanqing.xin/</link><image><url>https://tanqing.xin//og</url><title>新晴心情</title><link>https://tanqing.xin/</link></image><generator>Shiro (https://github.com/Innei/Shiro)</generator><lastBuildDate>Wed, 15 Apr 2026 10:05:32 GMT</lastBuildDate><atom:link href="https://tanqing.xin//feed" rel="self" type="application/rss+xml"/><pubDate>Wed, 15 Apr 2026 10:05:32 GMT</pubDate><language><![CDATA[zh-CN]]></language><item><title><![CDATA[mAP与F1-score的区别与联系]]></title><description><![CDATA[<blockquote>该渲染由 Shiro API 生成，可能存在排版问题，最佳体验请前往：<a href='https://tanqing.xin/posts/CV/01'>https://tanqing.xin/posts/CV/01</a></blockquote>
<div><div><p>F1-score和mAP（Mean Average Precision）都是用于评估分类或目标检测模型性能的指标，但它们有一些区别和不同的应用场景。</p><h3 id="1.-f1-score:">1. F1-score:</h3><ul><li><strong>定义：</strong> F1-score是一个用于衡量二分类模型性能的指标，综合考虑了模型的精确度和召回率。</li><li><strong>计算公式</strong>：</li></ul><blockquote style="text-align:center;margin:1rem 0;background-color:#f5f5f5;border-radius:0.5rem"><em>这个内容只能在原文中查看哦</em></blockquote><ul><li><strong>适用场景</strong>： F1-score适用于二分类问题，特别是在面对不平衡类别的情况下，因为它同时考虑了正类别和负类别的预测性能。在一些医学诊断或欺诈检测等领域，其中负类别样本可能远多于正类别样本时，F1-score是一个常用的评价指标。</li></ul><h3 id="2.-map-(mean-average-precision):">2. mAP (Mean Average Precision):</h3><ul><li><p><strong>定义</strong>： mAP是目标检测任务中常用的指标，它是所有类别的平均精度（Average Precision）的均值。</p></li><li><p><strong>计算过程</strong>：</p><p>对每个类别计算Precision-Recall曲线下的面积（AP，Average Precision）。</p><p>将所有类别的AP取平均得到mAP。</p></li><li><p><strong>适用场景</strong>： mAP主要用于目标检测任务，其中需要考虑多类别的检测性能。在目标检测中，除了精度和召回率，还需要考虑每个类别的定位准确度。</p></li></ul><h3 id="3.联系与区别：">3.联系与区别：</h3><ul><li>F1-score和mAP都是综合考虑精确度和召回率的指标，但应用于不同类型的任务。</li><li>F1-score更适用于二分类问题，而mAP更适用于多类别目标检测问题。</li><li>F1-score关注于两个类别的性能，而mAP关注于多个类别的平均性能。</li><li>在实际应用中，选择合适的评价指标取决于任务的特性和需求。</li></ul></div></div>
      <p style='text-align: right'>
      <a href='https://tanqing.xin/posts/CV/01#comments'>看完了？说点什么呢</a>
      </p>]]></description><link>https://tanqing.xin/posts/CV/01</link><guid isPermaLink="true">https://tanqing.xin/posts/CV/01</guid><dc:creator><![CDATA[JimmyTan]]></dc:creator><pubDate>Wed, 17 Apr 2024 06:16:48 GMT</pubDate></item><item><title><![CDATA[华为昇腾生态]]></title><description><![CDATA[<blockquote>该渲染由 Shiro API 生成，可能存在排版问题，最佳体验请前往：<a href='https://tanqing.xin/posts/llm/shengteng'>https://tanqing.xin/posts/llm/shengteng</a></blockquote>
<div><div><h3 id="1.以前国内深度学习之前的配置都基本是">1.以前国内深度学习之前的配置都基本是</h3><p><code>NVIDIA GPU / CPU + CUDA + Tensorflow/PyTorch</code></p><h3 id="2.[美国最新出口管制！英伟达rtx4090显卡或对华禁售](https://baijiahao.baidu.com/s?id=1780090768015277138&amp;wfr=spider&amp;for=pc)">2.<a href="https://baijiahao.baidu.com/s?id=1780090768015277138&amp;wfr=spider&amp;for=pc">美国最新出口管制！英伟达RTX4090显卡或对华禁售</a></h3><p>后来美国禁止 NVIDIA 卖GPU芯片给我们，于是国内企业开始发力CPU和GPU硬件，成果丰硕，虽然与NVIDIA顶级GPU还有一些差距，但是也不错，为了尽快填补国内需求，我们的解决方案是：</p><p><code>国产GPU + CUDA + Tensorflow/PyTorch</code></p><h3 id="3.[英伟达发布新规：其他硬件禁止使用cuda](https://www.thepaper.cn/newsdetail_forward_26575638)">3.<a href="https://www.thepaper.cn/newsDetail_forward_26575638">英伟达发布新规：其他硬件禁止使用CUDA</a></h3><p>然后封禁还没有结束，2024年3月7日，NVIDIA开始禁止我们使用 CUDA ，它其实就是一个协议或者指令集，它连接底层硬件与上层机器学习框架即<code>Tensorflow/PyTorch</code>，通过硬件和软件两个维度卡你，我们这么多年习惯了拿来主义，现在变得很被动。</p><h3 id="4.另一种选择:-[华为昇腾](https://e.huawei.com/cn/products/computing/ascend?source=corp_comm)">4.另一种选择: <a href="https://e.huawei.com/cn/products/computing/ascend?source=corp_comm">华为昇腾</a></h3><h4 id="华为昇腾生态">华为昇腾生态</h4><ul><li>硬件:昇腾系列AI计算芯片 Ascend910/Ascend310，就是专门用来计算的GPU芯片</li><li>软件:使用 CANN（类比于CUDA）</li><li>机器学习框架:异思mindspore（对标Tensorflow/PyTorch）</li></ul><p>同时mindspore也是开放的，它支持基于 CUDA 的 GPU 以及普通的 CPU芯片，当然mindspore也是使用 Python 来开发，还提供一个 MindStudio 全流程开发工具链。详见mindspore<a href="https://www.mindspore.cn/">官网 </a></p><h3 id="5.其它">5.其它</h3><p>一些其他的配置和技术组合可以用于国内的深度学习参考：</p><ol start="1"><li>AMD GPU：AMD的显卡也能够进行深度学习任务加速，虽然在过去可能没有NVIDIA GPU流行，但AMD GPU也逐渐被深度学习社区接受。OpenCL是一种可以在AMD GPU上运行深度学习任务的替代框架。</li><li>英伟达 (NVIDIA) 的 Deep Learning Accelerator (DLA)：英伟达的DLA是一种专门设计用于深度学习推理的硬件加速器，可以用于加速推理任务。</li><li>深度学习在边缘计算的部署：随着物联网和边缘计算的发展，深度学习模型也被部署到边缘设备上进行推理任务，这可能涉及到嵌入式系统、FPGA等硬件，并且可能使用TensorFlow Lite、TensorRT等轻量级框架。</li><li>量子计算：尽管目前还处于早期阶段，但量子计算可能在未来成为一种新的深度学习计算方式，提供更大规模的计算和更快的训练速度。</li><li>自定义硬件加速器：一些公司正在开发专门用于深度学习的自定义硬件加速器，例如谷歌的TPU (Tensor Processing Unit)、华为的昇腾 (Ascend) 等，这些加速器可能提供更高效的深度学习训练和推理性能。</li></ol></div></div>
      <p style='text-align: right'>
      <a href='https://tanqing.xin/posts/llm/shengteng#comments'>看完了？说点什么呢</a>
      </p>]]></description><link>https://tanqing.xin/posts/llm/shengteng</link><guid isPermaLink="true">https://tanqing.xin/posts/llm/shengteng</guid><dc:creator><![CDATA[JimmyTan]]></dc:creator><pubDate>Wed, 10 Apr 2024 13:26:20 GMT</pubDate></item><item><title><![CDATA[记录 2024 年第 101 天]]></title><description><![CDATA[<blockquote>该渲染由 Shiro API 生成，可能存在排版问题，最佳体验请前往：<a href='https://tanqing.xin/notes/2'>https://tanqing.xin/notes/2</a></blockquote>
<div><span>打卡南通</span></div>
      <p style='text-align: right'>
      <a href='https://tanqing.xin/notes/2#comments'>看完了？说点什么呢</a>
      </p>]]></description><link>https://tanqing.xin/notes/2</link><guid isPermaLink="true">https://tanqing.xin/notes/2</guid><dc:creator><![CDATA[JimmyTan]]></dc:creator><pubDate>Wed, 10 Apr 2024 13:24:14 GMT</pubDate></item><item><title><![CDATA[记录 2024 年第 98 天]]></title><description><![CDATA[<blockquote>该渲染由 Shiro API 生成，可能存在排版问题，最佳体验请前往：<a href='https://tanqing.xin/notes/1'>https://tanqing.xin/notes/1</a></blockquote>
<div><span>aaa</span></div>
      <p style='text-align: right'>
      <a href='https://tanqing.xin/notes/1#comments'>看完了？说点什么呢</a>
      </p>]]></description><link>https://tanqing.xin/notes/1</link><guid isPermaLink="true">https://tanqing.xin/notes/1</guid><dc:creator><![CDATA[JimmyTan]]></dc:creator><pubDate>Sun, 07 Apr 2024 13:09:46 GMT</pubDate></item></channel></rss>