哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于LabVIEW和YOLOv8-Pose的跳繩計(jì)數(shù)裝置

英特爾物聯(lián)網(wǎng) ? 來(lái)源:英特爾物聯(lián)網(wǎng) ? 2025-01-17 09:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

跳繩是一項(xiàng)廣受歡迎的運(yùn)動(dòng)項(xiàng)目,因其簡(jiǎn)單易行而備受學(xué)生和運(yùn)動(dòng)愛(ài)好者青睞。然而,在實(shí)際運(yùn)動(dòng)中,人工計(jì)數(shù)容易出現(xiàn)誤差,影響比賽和訓(xùn)練效果。本文提出了一種基于LabVIEW和YOLOv8-Pose的跳繩計(jì)數(shù)裝置,利用深度學(xué)習(xí)的姿態(tài)檢測(cè)能力和LabVIEW的實(shí)時(shí)處理功能,實(shí)現(xiàn)跳繩動(dòng)作的精準(zhǔn)識(shí)別與計(jì)數(shù)。本裝置具有操作簡(jiǎn)單、檢測(cè)精準(zhǔn)、實(shí)時(shí)性強(qiáng)等優(yōu)點(diǎn),適用于學(xué)校、體育館及家庭訓(xùn)練場(chǎng)景。

1

引言

隨著人工智能技術(shù)的發(fā)展,計(jì)算機(jī)視覺(jué)在體育領(lǐng)域的應(yīng)用日益廣泛。傳統(tǒng)的跳繩計(jì)數(shù)方法主要依賴人工記錄,存在效率低、誤差大的問(wèn)題。近年來(lái),基于機(jī)器視覺(jué)的自動(dòng)計(jì)數(shù)方法逐漸受到關(guān)注,其中人體姿態(tài)識(shí)別技術(shù)為跳繩計(jì)數(shù)提供了全新的解決方案。

2

系統(tǒng)設(shè)計(jì)

2.1硬件設(shè)計(jì)

本裝置的硬件包括:

攝像頭:用于采集跳繩者的視頻圖像,支持USB接口的普通網(wǎng)絡(luò)攝像頭或工業(yè)相機(jī)。攝像頭的采樣速率建議高于30FPS(每秒30幀)。

AIPC:搭載GPU的臺(tái)式機(jī)或筆記本電腦,用于運(yùn)行YOLOv8-Pose模型。

2.2軟件模塊

YOLOv8-Pose模型:基于深度學(xué)習(xí)的開源模型,能夠精準(zhǔn)識(shí)別人體關(guān)節(jié)點(diǎn)位置。模型通過(guò)訓(xùn)練,能夠檢測(cè)跳繩者的肢體動(dòng)作。

LabVIEW:用于構(gòu)建圖形化界面和處理邏輯,包括攝像頭采集、處理、計(jì)數(shù)及結(jié)果顯示。

e70954f2-d3e9-11ef-9310-92fbcf53809c.png

e7235a50-d3e9-11ef-9310-92fbcf53809c.png

OpenVINO :用于加快的模型推理速度,支持IntelCPU/GPU/NPU。在AIPC的Intel 11代1165G7芯片下,yolov8n-Pose的最大推理速度可達(dá)到60FPS。

2.3 軟件設(shè)計(jì)

步驟1:模型和攝像頭初始化

使用LabVIEW中的Opencv Camera模塊,即可快速采集攝像頭的圖像,并將圖像顯示在前面板上。程序中,我們需要設(shè)置采集圖像的寬度為640個(gè)像素,高度為480個(gè)像素。同時(shí),我們初始化yolov8-pose模型,加載至OpenVINO推理引擎中。跳繩計(jì)數(shù)器歸零,然后進(jìn)入循環(huán)。

e7350840-d3e9-11ef-9310-92fbcf53809c.png

步驟2:實(shí)時(shí)采集與姿態(tài)識(shí)別

每次循環(huán),軟件都從攝像頭中取出一幀圖像,送入yolov8-pose的推理函數(shù)中,獲取識(shí)別的結(jié)果圖像,和第一個(gè)人的所有關(guān)鍵點(diǎn)位置。

e75067de-d3e9-11ef-9310-92fbcf53809c.png

步驟3:

調(diào)用跳繩計(jì)數(shù)器算法,每次循環(huán)都需要判斷是否跳繩數(shù)加1。

3

跳繩計(jì)數(shù)算法設(shè)計(jì)

3.1 yolov8-pose模型輸出解析

Yolov8-pose算法的輸出分兩部分,第一部分是box,即每個(gè)人的外接矩形的位置,里面的參數(shù)為:

Box=[left,top,width,height] (左邊的像素點(diǎn)、上邊的像素點(diǎn)、寬度,高度)

第二部分是keypoints,由17個(gè)點(diǎn)構(gòu)成,17個(gè)點(diǎn)的定義如下圖:

e76e6928-d3e9-11ef-9310-92fbcf53809c.png

3.2 跳繩過(guò)程中的坐標(biāo)變化

以雙腳跳為例,采集某同學(xué)整個(gè)跳繩過(guò)程中的keypoint-15(左腳踝)或者keypoint-16(右腳踝)的y軸數(shù)值。Y值越小,說(shuō)明在圖中的位置越高。

e78d34ac-d3e9-11ef-9310-92fbcf53809c.png

波形圖中,左右兩邊部分表示了正常的跳躍時(shí)間段,中間有一部分y軸變化較小,說(shuō)明學(xué)生暫停跳躍。

3.2 算法實(shí)現(xiàn)思路

(1) 在正常跳躍時(shí),當(dāng)學(xué)生腳部處于一個(gè)周期的最低點(diǎn)(即曲線的極大值)時(shí)可認(rèn)為跳了一個(gè)。

(2) 但是,曲線在接近最高點(diǎn)時(shí),由于AI產(chǎn)生的誤差,曲線會(huì)有毛刺。因此需要判斷當(dāng)前新產(chǎn)生的最高點(diǎn)與上一次最高點(diǎn)的循環(huán)間隔,如果間隔太小,就可以忽略。

(3) 當(dāng)學(xué)生失誤停止跳繩時(shí),由于學(xué)生本身還在移動(dòng)或測(cè)量誤差導(dǎo)致的y值變化也應(yīng)去除。只需判斷當(dāng)前值與歷史數(shù)據(jù)中的最高點(diǎn)(y的最小值)的差,如果小于一個(gè)閾值就可忽略。

3.3 算法實(shí)現(xiàn)代碼

在LabVIEW中,我們?nèi)∽罱?0個(gè)點(diǎn)分析,其中最后5個(gè)點(diǎn)用來(lái)判斷曲線的極大值,如果5個(gè)值中第2個(gè)(從0開始計(jì)數(shù))為最大值的,且與10個(gè)數(shù)的最小值的差大于60(最高點(diǎn)與最低點(diǎn)的高度像素差),可將該點(diǎn)作為候選點(diǎn)。

e7b7fe80-d3e9-11ef-9310-92fbcf53809c.png

獲取候選點(diǎn)所對(duì)應(yīng)的時(shí)間,與它之前的一個(gè)候選點(diǎn)做比較。如果時(shí)間大于150毫秒(5幀,假設(shè)人類跳繩速度小于每分鐘360個(gè)),則忽略,小于則計(jì)數(shù)器加1。

e7ce1710-d3e9-11ef-9310-92fbcf53809c.png

將算法保存為子vi :跳繩計(jì)數(shù)判斷.vi,放入主程序,最終程序如下圖:

e7e0932c-d3e9-11ef-9310-92fbcf53809c.png

4

實(shí)驗(yàn)

4.1 實(shí)驗(yàn)設(shè)置

在校內(nèi)體育館搭建實(shí)驗(yàn)場(chǎng)景,選取10名學(xué)生進(jìn)行跳繩測(cè)試。設(shè)置單人跳繩和雙人交替跳繩兩種模式,采集多組視頻數(shù)據(jù)。

4.2 測(cè)試結(jié)果

實(shí)驗(yàn)結(jié)果表明,該裝置在雙腳跳繩場(chǎng)景下的計(jì)數(shù)準(zhǔn)確率達(dá)98.5%,在左右腳交替跳繩場(chǎng)景下準(zhǔn)確率為95.3%。與人工計(jì)數(shù)相比,誤差控制在±2次以內(nèi)。

誤差原因主要與相機(jī)位置有關(guān),相機(jī)需要放在學(xué)生正前方2~3米左右,高度大約為學(xué)生身高的一半,且相機(jī)鏡頭水平向前。如果相機(jī)斜著,可能造成一定誤差。

4.3 性能分析

實(shí)時(shí)性:使用OpenVINO英特爾GPU加速,系統(tǒng)處理幀率可達(dá)60 FPS,滿足實(shí)時(shí)計(jì)數(shù)需求。

穩(wěn)定性:即使在光照變化和背景復(fù)雜的情況下,模型依然能夠有效識(shí)別關(guān)鍵動(dòng)作。

5

創(chuàng)新點(diǎn)與優(yōu)勢(shì)

將LabVIEW與YOLOv8-Pose結(jié)合,實(shí)現(xiàn)深度學(xué)習(xí)模型的實(shí)時(shí)調(diào)用與可視化界面交互。

提出了基于關(guān)鍵點(diǎn)運(yùn)動(dòng)軌跡的跳繩動(dòng)作識(shí)別算法,有效降低誤判率。

系統(tǒng)成本低、部署簡(jiǎn)單,適合中學(xué)生科創(chuàng)比賽和實(shí)際推廣。

6

結(jié)論與展望

本文設(shè)計(jì)了一種基于LabVIEW和YOLOv8-Pose的跳繩計(jì)數(shù)裝置,成功解決了人工計(jì)數(shù)誤差大的問(wèn)題。未來(lái)可進(jìn)一步優(yōu)化算法,使用平均濾波算法提高人體位置(如腳踝位置的準(zhǔn)確度)、并兼容雙腳跳和單腳跳兩種跳繩模式。同時(shí)探索硬件設(shè)備的小型化與便攜化,使其適應(yīng)更多應(yīng)用場(chǎng)景。

參考文獻(xiàn)

Redmon J., Farhadi A. YOLOv8: Real-Time Object Detection and Pose Estimation. arXiv preprint.

National Instruments. LabVIEW User Manual. NI.

Cao Z., Simon T., Wei S. Pose Estimation in Sports Applications. IEEE Transactions.

https://doc.virobotics.net/zh_cn/ai_toolkit_for_ov

https://github.com/openvinotoolkit/openvino_notebooks/tree/latest/notebooks/pose-estimation-webcam

英特爾、英特爾標(biāo)識(shí)、以及其他英特爾商標(biāo)是英特爾公司或其子公司在美國(guó)和/或其他國(guó)家的商標(biāo)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • LabVIEW
    +關(guān)注

    關(guān)注

    2019

    文章

    3688

    瀏覽量

    348224
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4797

    瀏覽量

    98447
  • 計(jì)數(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    58

    瀏覽量

    20678

原文標(biāo)題:開發(fā)者實(shí)戰(zhàn) | 基于LabVIEW和YOLOv8-Pose的跳繩計(jì)數(shù)裝置

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于安信可Ai-M61-32S開發(fā)板的跳繩計(jì)數(shù)器設(shè)計(jì)

    給小孩數(shù)跳繩個(gè)數(shù),總是數(shù)著數(shù)著對(duì)不上了,想著買一個(gè)自動(dòng)計(jì)數(shù)的,但是買不如做一個(gè)。
    的頭像 發(fā)表于 01-24 09:28 ?564次閱讀
    基于安信可Ai-M61-32S開發(fā)板的<b class='flag-5'>跳繩</b><b class='flag-5'>計(jì)數(shù)</b>器設(shè)計(jì)

    【NPU實(shí)戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標(biāo)檢測(cè)與語(yǔ)義分割一站式部署指南

    【NPU實(shí)戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標(biāo)檢測(cè)與語(yǔ)義分割一站式部署指南
    的頭像 發(fā)表于 12-12 14:30 ?6333次閱讀
    【NPU實(shí)戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)<b class='flag-5'>YOLOv8</b>:目標(biāo)檢測(cè)與語(yǔ)義分割一站式部署指南

    使用ROCm?優(yōu)化并部署YOLOv8模型

    作者:AVNET 李鑫杰 一,YOLOv8介紹? YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日發(fā)布,在準(zhǔn)確性和速度方面提供了前沿的性能。YOLOv8 在之前 YOLO
    的頭像 發(fā)表于 09-24 18:32 ?969次閱讀
    使用ROCm?優(yōu)化并部署<b class='flag-5'>YOLOv8</b>模型

    單板挑戰(zhàn)4路YOLOv8!米爾瑞芯微RK3576開發(fā)板性能實(shí)測(cè)

    ,-pos來(lái)演示。米爾基于RK3576開發(fā)板 單獨(dú)測(cè)試視頻場(chǎng)景1.YOLOv8s.int 目標(biāo)檢測(cè)模型 2.YOLOv8s-seg.int 實(shí)例分割模型 3.YOLOv8s-pose.int 人體姿態(tài)估計(jì)模型
    發(fā)表于 09-12 17:52

    在K230中,如何使用AI Demo中的object_detect_yolov8n,YOLOV8多目標(biāo)檢測(cè)模型?

    在K230的AI開發(fā)教程文檔中,可以看到有源碼的AI Demo,其中包括yolov8n模型,在倉(cāng)庫(kù)里可以看到源碼 我想請(qǐng)問(wèn)各位大佬,如何使用這個(gè)程序?如何更改程序,替換為我自己的數(shù)據(jù)集和訓(xùn)練后的模型?
    發(fā)表于 08-07 06:48

    智慧跳繩全方案:三模無(wú)線+姿態(tài)感知,低功耗高精度芯片

    在快節(jié)奏的現(xiàn)代生活中,健身愛(ài)好者追求高效、有趣且數(shù)據(jù)驅(qū)動(dòng)的鍛煉方式。智能跳繩應(yīng)運(yùn)而生,將傳統(tǒng)有氧運(yùn)動(dòng)與尖端科技相結(jié)合,徹底改變了我們的鍛煉方式。憑借精準(zhǔn)計(jì)數(shù)、互動(dòng)功能和便攜性,智能跳繩正成為健身房
    的頭像 發(fā)表于 08-06 16:57 ?946次閱讀
    智慧<b class='flag-5'>跳繩</b>全方案:三模無(wú)線+姿態(tài)感知,低功耗高精度芯片

    YOLOv8轉(zhuǎn)換到kmodel時(shí)出現(xiàn)undefined symbol錯(cuò)誤怎么解決?

    使用yolo v8訓(xùn)練視覺(jué)檢測(cè)模型,使用yolov8版本為8.3.159,訓(xùn)練完后在windows使用ultralytics中的函數(shù)導(dǎo)出.pt文件為.onnx文件,然后在WSL
    發(fā)表于 07-28 06:20

    yolov5訓(xùn)練部署全鏈路教程

    1.Yolov5簡(jiǎn)介YOLOv5模型是Ultralytics公司于2020年6月9日公開發(fā)布的。YOLOv5模型是基于YOLOv3模型基礎(chǔ)上改進(jìn)而來(lái)的,有
    的頭像 發(fā)表于 07-25 15:22 ?1997次閱讀
    <b class='flag-5'>yolov</b>5訓(xùn)練部署全鏈路教程

    yolov8怎么在wsl中搭建呢?

    純小白,yolov8怎么在wsl中搭建呢?一直報(bào)錯(cuò)且無(wú)法安裝pip包
    發(fā)表于 07-11 07:37

    智能跳繩如何用霍爾元件計(jì)數(shù)

    在智能跳繩中,霍爾元件(以DH570為例,其原理與通用霍爾元件一致)通過(guò)檢測(cè)磁場(chǎng)變化實(shí)現(xiàn)精準(zhǔn)計(jì)數(shù),其核心機(jī)制與工作流程如下: 一、核心原理:霍爾效應(yīng)與磁場(chǎng)檢測(cè) 霍爾元件基于霍爾效應(yīng)工作:當(dāng)電流
    的頭像 發(fā)表于 07-02 16:42 ?1112次閱讀

    如何提高yolov8模型在k230上運(yùn)行的幀率?

    我rgb888p_size參數(shù)在[1280,720]時(shí)只有4~6 FPS,調(diào)成[640,640]大概也只有10FPS左右,我是用官方y(tǒng)oolo大作戰(zhàn)上的示例代碼看的,用的是yolov8s.pt訓(xùn)
    發(fā)表于 06-20 06:25

    se5 8使用YOLOv5_object示例程序出錯(cuò)“Not able to open cpu.so”的原因?

    /test_model/bmnnsdk2-bm1684_v2.7.0/examples/YOLOv5_object/data/models/yolov5s_fix8b_640_1.bmodel [BMRT
    發(fā)表于 04-22 11:29

    labview調(diào)用yolov8/11目標(biāo)檢測(cè)、分割、分類

    labview使用2020版本64位編輯,調(diào)用yolov8/11的onnx模型案例。 源碼: 通過(guò)網(wǎng)盤分享的文件:Labview_cls.zip等4個(gè)文件 鏈接: https
    發(fā)表于 04-21 19:37

    RV1126 yolov8訓(xùn)練部署教程

    本教程針對(duì)目標(biāo)檢測(cè)算法yolov8的訓(xùn)練和部署到EASY-EAI-Nano(RV1126)進(jìn)行說(shuō)明,而數(shù)據(jù)標(biāo)注方法可以參考我們往期的文章。
    的頭像 發(fā)表于 04-18 15:18 ?2256次閱讀
    RV1126 <b class='flag-5'>yolov8</b>訓(xùn)練部署教程

    RV1126 yolov8訓(xùn)練部署教程

    YOLOv8 是 ultralytics 公司在 2023 年 1月 10 號(hào)開源的基于YOLOV5進(jìn)行更新的 下一個(gè)重大更新版本,目前支持圖像分類、物體檢測(cè)和實(shí)例分割任務(wù),鑒于Yolov5的良好表現(xiàn),
    的頭像 發(fā)表于 04-16 14:53 ?1661次閱讀
    RV1126 <b class='flag-5'>yolov8</b>訓(xùn)練部署教程
    札达县| 中超| 南部县| 若尔盖县| 封开县| 栖霞市| 文成县| 巴里| 广丰县| 无锡市| 沧源| 灌阳县| 上饶市| 印江| 佛山市| 双江| 泸水县| 榆树市| 海南省| 凉山| 汝南县| 台北市| 邹城市| 成安县| 南靖县| 富源县| 临西县| 鄂州市| 赫章县| 财经| 如皋市| 大竹县| 于田县| 赣榆县| 定远县| 沂水县| 诸城市| 婺源县| 濮阳市| 泸定县| 澄江县|