- 2025-02-05昇腾设备torch_npu推理配置
1.Ascend310B1的npu推理思路 在昇腾Ascend310B1NPU上基于PyTorch进行推理时,通过 torch_npu 替换原有GPU/CUDA操作。 torch_npu的技术参考文档:pytorch:AscendExtensionforPyTorch2.推理过程中可能遇到的问题和解决方案1. NPU设备不支持 double
- 2025-01-27YOLOv11小白的进击之路(二)从YOLO类-DetectionModel类出发看YOLO代码运行逻辑...
这里以目标检测为例,让我们来看看YOLOv11这个大家伙是怎么跑起来的:在我们自己写的train.py中,会指定模型配置文件的路径,例如model=YOLO(model='ultralytics/cfg/models/11/my.yaml')以及,通过关键词参数定制训练过程,例如model.train(data='./data.yaml',epochs=3,batch=-1,
- 2025-01-27YOLOv11小白的进击之路(三)从YOLO类-DetectionTrainer类出发看YOLO代码运行逻辑...
书接上回,在我们自己写的train.py中,会指定模型配置文件的路径,例如model=YOLO(model='ultralytics/cfg/models/11/my.yaml')我们按住Ctrl键+鼠标左键可以跳转到YOLO类,发现其位置在于/ultralytics-main/ultralytics/models/yolo/model.py,其内容比较简单,只有_init_方法(初始化
- 2024-12-20x264 亚像素插值及其内存结构
参考:https://blog.csdn.net/leixiaohua1020/article/details/459362671.亚像素插值原理先简单介绍一下亚像素插值是如何进行的,基本来自这篇博客https://blog.csdn.net/leixiaohua1020/article/details/45936267h264中像素可以分为整像素、半像素、1/4像素,其中半像素和1/4像
- 2024-12-14转载:【AI系统】计算图的优化策略
除了前面提到的算子替换和算子前移等内容,本文内容将深入探讨计算图的优化策略,我们将细致分析图优化的其他重要内容,如改变数据节点的数据类型或存储格式来提升模型性能,以及优化数据的存储和访问方式以降低内存占用和数据访问时间。以上内容的理解和掌握,对于高效利用计算资源,提升算
- 2024-12-13转载:【AI系统】计算图的优化策略
除了前面提到的算子替换和算子前移等内容,本文内容将深入探讨计算图的优化策略,我们将细致分析图优化的其他重要内容,如改变数据节点的数据类型或存储格式来提升模型性能,以及优化数据的存储和访问方式以降低内存占用和数据访问时间。以上内容的理解和掌握,对于高效利用计算资源,提升算
- 2024-12-12转载:【AI系统】计算图的优化策略
除了前面提到的算子替换和算子前移等内容,本文内容将深入探讨计算图的优化策略,我们将细致分析图优化的其他重要内容,如改变数据节点的数据类型或存储格式来提升模型性能,以及优化数据的存储和访问方式以降低内存占用和数据访问时间。以上内容的理解和掌握,对于高效利用计算资源,提升算
- 2024-12-12转载:【AI系统】计算图的优化策略
除了前面提到的算子替换和算子前移等内容,本文内容将深入探讨计算图的优化策略,我们将细致分析图优化的其他重要内容,如改变数据节点的数据类型或存储格式来提升模型性能,以及优化数据的存储和访问方式以降低内存占用和数据访问时间。以上内容的理解和掌握,对于高效利用计算资源,提升算
- 2024-11-30【每天一篇深度学习论文】(IEEE 2024)即插即用特征增强模块FEM
目录论文介绍题目:论文地址:创新点方法整体结构即插即用模块作用消融实验结果即插即用模块代码论文介绍题目:FFCA-YOLOforSmallObjectDetectioninRemoteSensingImages论文地址:https://ieeexplore.ieee.org/document/10423050创新点FFCA-YOLO模型的设计:该
- 2024-11-28(即插即用模块-Attention部分) 二十一、(2021) Polarized Self-Attention 极化自注意力
文章目录1、PolarizedSelf-Attention2、代码实现paper:PolarizedSelf-Attention:TowardsHigh-qualityPixel-wiseRegressionCode:https://github.com/DeLightCMU/PSA1、PolarizedSelf-Attention像素级回归是细粒度计算机视觉任务中的常见问题。回归问题往
- 2024-12-12火焰监测识别摄像机
火焰识别摄像机是一种可以监测环境中火焰的摄像设备,具有广泛的应用场景,包括但不限于工业厂区、商业建筑、森林防火等领域。这种摄像机可以通过对火焰的热辐射进行识别和分析,及时发现火源并采取相应措施,可以有效减少火灾带来的损失,提高安全性和管理效率。火焰识别摄像机的工作原
- 2024-12-10url_for函数、视图函数、endpoint参数
在Flask中,url_for函数、路由装饰器中的endpoint参数以及视图函数名称之间的关系是理解FlaskURL路由机制的关键。先看示例代码:HTML文件代码:<li><ahref="{{url_for('val1',title='index首页')}}">首页1</a></li>python文件代码:@app.route('/',endpoin
- 2024-12-10k8s 实战 4----副本集
副本集是什么?我们在前文中讲过什么是pod,简单来说pod就是k8s直接操作的基本单位。不了解的同学可以参考前文:k8s实战1----初识(https://www.cnblogs.com/jilodream/p/18245222)k8s实战2----pod基础(https://www.cnblogs.com/jilodream/p/18284282)k8s实战3----标签(htt
- 2024-11-24单调栈
【模板】单调栈题目描述给出项数为\(n\)的整数数列\(a_{1\dotsn}\)。定义函数\(f(i)\)代表数列中第\(i\)个元素之后第一个大于\(a_i\)的元素的下标,即\(f(i)=\min_{i<j\leqn,a_j>a_i}\{j\}\)。若不存在,则\(f(i)=0\)。试求出\(f(1\dotsn)\)。输入格式第一
- 2024-10-16【TVM 教程】规约(reduce)
ApacheTVM是一个端到端的深度学习编译框架,适用于CPU、GPU和各种机器学习加速芯片。更多TVM中文文档可访问→https://tvm.hyper.ai/作者:TianqiChen本文介绍如何在TVM中规约(reduce)。关联规约算子(如sum/max/min)是线性代数运算的典型构造块。from__future__importabso
- 2024-09-28卷积、激活、池化与批量归一化:深度学习中的关键操作
在深度学习,尤其是卷积神经网络(CNN)中,卷积、激活、池化和批量归一化是四个基本操作。它们共同作用,帮助模型高效学习和提取数据中的重要特征。1.卷积操作作用卷积操作旨在通过滑动卷积核(过滤器)在输入数据上提取局部特征,如边缘和角点。过程滑动卷积核:卷积核在输入特征图上
- 2024-09-19卷积和转置卷积的输出尺寸计算
卷积和转置卷积的输出尺寸计算卷积h'是输出的高,h是输入的高,k_h是卷积核的高w类似stride=1h'=h-k_h+padding*2+1通用公式stride=1就是上面的公式h'=(h-k_w+2*padding+stride)//stride一些常见的卷积高宽不变的卷积:kernel_size=3,padding=1,这
- 2024-08-20limu|P19-22|卷积神经网络(CNN)基础
目录:1、卷积是什么:在数学、实际生活、数字图像处理和机器学习中的卷积2、卷积层是什么:从全连接层到卷积层3、卷积层的kernal_size、padding、stride等超参数4、卷积层的输入和输出的通道数(in_channels和out_channels)的意义5、池化层参考资料:1、李沐动手学深度学习课程2、b
- 2024-08-04模型轻量化——知识蒸馏(一)
写作目的:帮助新手快速掌握人工智能中模型轻量化部分的内容。知识蒸馏原理:训练一个参数量较大的模型(教师模型),然后用其输出来帮助参数量较小的模型(学生模型)进行训练,以达到提升精度的目的。代码实现:模型构建首先先使用pytorch创建一个简单的模型,该模型参数较少,当作学生模型
- 2024-08-03常用的数据集WebVision介绍和pytorch下的简单使用
WebVision数据集介绍官方下载地址WebVision数据集常用于开集/闭集噪声学习、长尾噪声学习方法在真实数据集上的评估。根据[2]的统计,干净样本占70%,OOD噪声占25%,ID噪声占5%。由于数据集本身较大,论文中使用的都是其中很小的一部分,进入下载页面,选择《WebVisionDataset1.0》《Resi
- 2024-07-27经典CNN模型(九):MobileNetV3(PyTorch详细注释版)
一.MobileNetV3神经网络介绍MobileNetV3是MobileNet系列的第三代模型,由Google在2019年提出,旨在进一步优化模型的效率和性能,特别是在移动设备和边缘计算设备上。与前一代相比,MobileNetV3引入了多项改进,包括使用神经架构搜索(NeuralArchitectureSearch,NAS)、自适