\n
\n\n\n\n\n利用 OpenPifPaf 对输入视频进行人体姿势估计,然后通过长短时记忆神经网络(LSTM)从前面得到的姿势信息中提取五个时间和空间特征(作为当前的 *X*n 输入)以预测\"跌倒\"动作,支持多摄像头和多人实时检测。模型在 UP-Fall Detection 数据集上训练,基于 PyTorch 实现。\n\n
\n\n
\n\n\n\n## 安装\n\n```shell script\npip install -r requirements.txt\n```\n\n## 使用\n\n```shell script\npython fall_detector.py --num_cams=1\n```\n\n\n## 完整运行代码\n\n usage: fall_detector.py [-h] [--seed-threshold SEED_THRESHOLD]\n [--instance-threshold INSTANCE_THRESHOLD]\n [--keypoint-threshold KEYPOINT_THRESHOLD]\n [--decoder-workers DECODER_WORKERS]\n [--dense-connections]\n [--dense-coupling DENSE_COUPLING] [--caf-seeds]\n [--no-force-complete-pose]\n [--profile-decoder [PROFILE_DECODER]]\n [--cif-th CIF_TH] [--caf-th CAF_TH]\n [--connection-method {max,blend}] [--greedy]\n [--checkpoint CHECKPOINT] [--basenet BASENET]\n [--headnets HEADNETS [HEADNETS ...]] [--no-pretrain]\n [--two-scale] [--multi-scale] [--no-multi-scale-hflip]\n [--cross-talk CROSS_TALK] [--no-download-progress]\n [--head-dropout HEAD_DROPOUT] [--head-quad HEAD_QUAD]\n [--resolution RESOLUTION] [--resize RESIZE]\n [--num_cams NUM_CAMS] [--video VIDEO] [--debug]\n [--disable_cuda] [--plot_graph] [--joints]\n [--skeleton] [--coco_points] [--save_output]\n [--fps FPS] [--out-path OUT_PATH]\n [--input_direct INPUT_DIRECT]\n \n optional arguments:\n -h, --help show this help message and exit\n --resolution RESOLUTION\n Resolution prescale factor from 640x480. Will be\n rounded to multiples of 16. (default: 0.4)\n --resize RESIZE Force input image resize. Example WIDTHxHEIGHT.\n (default: None)\n --num_cams NUM_CAMS Number of Cameras. (default: 1)\n --video VIDEO Path to the video file. For single video fall\n detection(--num_cams=1), save your videos as abc.xyz\n and set --video=abc.xyz For 2 video fall\n detection(--num_cams=2), save your videos as abc1.xyz\n & abc2.xyz and set --video=abc.xyz (default: None)\n --debug debug messages and autoreload (default: False)\n --disable_cuda disables cuda support and runs from gpu (default:\n False)\n \n decoder configuration:\n --seed-threshold SEED_THRESHOLD\n minimum threshold for seeds (default: 0.5)\n --instance-threshold INSTANCE_THRESHOLD\n filter instances by score (default: 0.2)\n --keypoint-threshold KEYPOINT_THRESHOLD\n filter keypoints by score (default: None)\n --decoder-workers DECODER_WORKERS\n number of workers for pose decoding (default: None)\n --dense-connections use dense connections (default: False)\n --dense-coupling DENSE_COUPLING\n dense coupling (default: 0.01)\n --caf-seeds [experimental] (default: False)\n --no-force-complete-pose\n --profile-decoder [PROFILE_DECODER]\n specify out .prof file or nothing for default file\n name (default: None)\n \n CifCaf decoders:\n --cif-th CIF_TH cif threshold (default: 0.1)\n --caf-th CAF_TH caf threshold (default: 0.1)\n --connection-method {max,blend}\n connection method to use, max is faster (default:\n blend)\n --greedy greedy decoding (default: False)\n \n network configuration:\n --checkpoint CHECKPOINT\n Load a model from a checkpoint. Use \"resnet50\",\n \"shufflenetv2k16w\" or \"shufflenetv2k30w\" for\n pretrained OpenPifPaf models. (default: None)\n --basenet BASENET base network, e.g. resnet50 (default: None)\n --headnets HEADNETS [HEADNETS ...]\n head networks (default: None)\n --no-pretrain create model without ImageNet pretraining (default: True)\n --two-scale [experimental] (default: False)\n --multi-scale [experimental] (default: False)\n --no-multi-scale-hflip\n [experimental] (default: True)\n --cross-talk CROSS_TALK\n [experimental] (default: 0.0)\n --no-download-progress\n suppress model download progress bar (default: True)\n \n head:\n --head-dropout HEAD_DROPOUT\n [experimental] zeroing probability of feature in head\n input (default: 0.0)\n --head-quad HEAD_QUAD\n number of times to apply quad (subpixel conv) to heads\n (default: 1)\n \n Visualisation:\n --plot_graph Plot the graph of features extracted from keypoints of\n pose. (default: False)\n --joints Draw joints keypoints on the output video. (default: True)\n --skeleton Draw skeleton on the output video. (default: True)\n --coco_points Visualises the COCO points of the human pose. (default: False)\n --save_output Save the result in a video file. Output videos are\n saved in the same directory as input videos with \"out\"\n appended at the start of the title (default: False)\n --fps FPS FPS for the output video. (default: 18)\n --out-path OUT_PATH Save the output video at the path specified. .avi file\n format. (default: result.avi)\n --input_direct INPUT_DIRECT\n Save the input link to images directory. (default: None)\n\n- 模型输入可以直接为摄像头作为视频源或者用下载好的视频作为视频源。\n- 如果在非服务器端可以通过设置在窗口进行实时画面的显示。\n\n## 参考\n\n- [OpenPifPaf](https://github.com/openpifpaf/openpifpaf)\n- [UP-fall detection Dataset](https://dx.doi.org/10.3390/s19091988)\n- [Multi-camera, multi-person, and real-time fall detection using long short term memory](https://doi.org/10.1117/12.2580700)\n- Lei Wang, Du Q. Huynh, Piotr Koniusz. A Comparative Review of Recent Kinect-based Action Recognition Algorithms[J]. IEEE TRANSACTIONS ON IMAGE PROCESSING,2019.\n- Nusrat Tasnim , Mohammad Khairul Islam and Joong-Hwan Baek. Deep Learning Based Human Activity Recognition Using Spatio-Temporal Image Formation of Skeleton Joints[J].applied sciences.\n- Mickael Delamare, Cyril Laville, Adnane Cabani and Houcine Chafouk. Graph Convolutional Networks Skeleton-based Action Recognition for Continuous Data Stream: A Sliding Window Approach[J]. 16th International Conference on Computer Vision Theory and Applications.\n- Tasweer Ahmad, Lianwen Jin, Xin Zhang, Songxuan Lai, Guozhi Tang, and Luojun Lin. Graph Convolutional Neural Network for Human Action Recognition: A Comprehensive Survey[J].\n- Zehua Sun, Jun Liu, Qiuhong Ke, Hossein Rahmani, Mohammed Bennamoun, and Gang Wang. Human Action Recognition from Various Data Modalities: A Review[J].","website":null,"lesson_url":null,"identifier":"HumanFallDetectionLSTM","invite_code":"X4rR9D","name":"基于 OpenPifPaf 的多摄像头多人实时跌倒等异常行为识别预警应用研究","description":"利用 OpenPifPaf 对输入视频进行人体姿势估计,然后通过长短时记忆神经网络(LSTM)从前面得到的姿势信息中提取五个时间和空间特征以预测”跌倒”等异常行为动作,支持多摄像头和多人实时检测。","project_id":1402340,"repo_id":1403964,"issues_count":1,"pull_requests_count":0,"project_identifier":"HumanFallDetectionLSTM","praises_count":10,"forked_count":1,"watchers_count":6,"versions_count":0,"version_releases_count":0,"version_releasesed_count":0,"permission":"","mirror_url":null,"mirror":false,"has_actions":false,"web_site":null,"type":0,"open_devops":false,"topics":[{"id":2,"name":"python"}],"watched":false,"praised":false,"status":1,"forked_from_project_id":null,"empty":false,"size":"46.6 MB","ssh_url":"git@code.gitlink.org.cn:pkwhiuqat/HumanFallDetectionLSTM.git","clone_url":"https://gitlink.org.cn/pkwhiuqat/HumanFallDetectionLSTM.git","default_branch":"master","full_name":"pkwhiuqat/HumanFallDetectionLSTM","private":false,"license_name":"MIT","branches_count":6,"tags_count":0,"author":{"id":88070,"login":"pkwhiuqat","type":"User","name":"王洋","image_url":"system/lets/letter_avatars/2/W/229_185_186/120.png"}},"projectBase":{"identifier":"HumanFallDetectionLSTM","name":"基于 OpenPifPaf 的多摄像头多人实时跌倒等异常行为识别预警应用研究","platform":"forge","id":1402340,"repo_id":1403964,"open_devops":false,"type":0,"author":{"login":"pkwhiuqat","name":"王洋","type":"User","image_url":"system/lets/letter_avatars/2/W/229_185_186/120.png"},"project_language_id":9,"license_id":200,"jianmu_devops_url":"https://jianmu.gitlink.org.cn","cloud_ide_saas_url":"https://saasfactory.test.opentrs.com/oauth/login?product_account_id=PA1001218&tenant_code=TI1001383&oauth_url=https://www.gitlink.org.cn/api/users/info.json&token=6a2a7a21ca3843ecb172ff3febbe04ca7fcbf909","open_blockchain":false,"has_dataset":false,"open_portrait":false},"projectEntries":{"last_commit":{"commit":{"sha":"4c6839c77c72cfcfa208d2da800c05e2c1f86de0","message":"modify the document\n","author":{"name":"王洋","email":"1316130400@qq.com","date":"2021-11-20T23:10:21+08:00"},"committer":{"name":"王洋","email":"1316130400@qq.com","date":"2021-11-20T23:10:21+08:00"},"timestamp":1637421021,"time_from_now":"3年前"},"author":{"id":88070,"login":"pkwhiuqat","name":"王洋","type":"User","image_url":"system/lets/letter_avatars/2/W/229_185_186/120.png"},"committer":{"id":88070,"login":"pkwhiuqat","name":"王洋","type":"User","image_url":"system/lets/letter_avatars/2/W/229_185_186/120.png"}},"commits_count":68,"zip_url":"https://www.gitlink.org.cn/api/pkwhiuqat/humanfalldetectionlstm/archive/master.zip","tar_url":"https://www.gitlink.org.cn/api/pkwhiuqat/humanfalldetectionlstm/archive/master.tar.gz","entries":[{"name":"documents","path":"documents","sha":"b914e6fb9803ed89c01b8fe2bb9669aaa7ad1460","type":"dir","submodule_git_url":null,"size":0,"is_readme_file":false,"content":null,"target":null,"commit":{"message":"modify the document\n","sha":"4c6839c77c72cfcfa208d2da800c05e2c1f86de0","created_at":"2021-11-20 23:10","time_from_now":"3年前","created_at_unix":1637421021}},{"name":"input","path":"input","sha":"c4fe92561696ce5fb551a875fa5db672f495a778","type":"dir","submodule_git_url":null,"size":0,"is_readme_file":false,"content":null,"target":null,"commit":{"message":"Initial commit\n","sha":"70c5be66978191cfda3b6fea8f6c784b5ad371cf","created_at":"2021-10-23 17:32","time_from_now":"3年前","created_at_unix":1634981579}},{"name":"model","path":"model","sha":"6d67486bd9873c4bcc37f2e7e8ac7fac4e602ac3","type":"dir","submodule_git_url":null,"size":0,"is_readme_file":false,"content":null,"target":null,"commit":{"message":"Initial commit\n","sha":"70c5be66978191cfda3b6fea8f6c784b5ad371cf","created_at":"2021-10-23 17:32","time_from_now":"3年前","created_at_unix":1634981579}},{"name":"vis","path":"vis","sha":"d7c657b4f0c0737d04e48de32ce72e043511d689","type":"dir","submodule_git_url":null,"size":0,"is_readme_file":false,"content":null,"target":null,"commit":{"message":"Initial commit\n","sha":"70c5be66978191cfda3b6fea8f6c784b5ad371cf","created_at":"2021-10-23 17:32","time_from_now":"3年前","created_at_unix":1634981579}},{"name":"LICENSE","path":"LICENSE","sha":"204b93da48d02900098ced21c54062ffbff36b9c","type":"file","submodule_git_url":null,"size":1108,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"Initial commit\n","sha":"d6b9380f12914cfaa1b140a682aba870a6af1f3a","created_at":"2021-10-23 16:42","time_from_now":"3年前","created_at_unix":1634978528}},{"name":"LSTM.png","path":"LSTM.png","sha":"246b1f7a4a23b3fe8ccbb80322e3c14599c72e98","type":"file","submodule_git_url":null,"size":32415,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"Update README\n","sha":"9b7e3b22a10190cf33c55bbc3b21852df1107c32","created_at":"2021-10-26 22:55","time_from_now":"3年前","created_at_unix":1635260126}},{"name":"README.md","path":"README.md","sha":"a45ee914dd6bb5430e0c9a4980272fd80e6acd6b","type":"file","submodule_git_url":null,"size":8684,"is_readme_file":true,"content":null,"target":null,"commit":{"message":"modify the document\n","sha":"4c6839c77c72cfcfa208d2da800c05e2c1f86de0","created_at":"2021-11-20 23:10","time_from_now":"3年前","created_at_unix":1637421021}},{"name":"algorithms.py","path":"algorithms.py","sha":"2a85639006dc130d9e16eb8d20c1382730c73489","type":"file","submodule_git_url":null,"size":23138,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"Update algorithms.py\n","sha":"b59db8c572a1593994023d69250c8d1291f5ac68","created_at":"2021-11-20 21:42","time_from_now":"3年前","created_at_unix":1637415760}},{"name":"data_gen.py","path":"data_gen.py","sha":"cc820b09da03cf0575ca5dc2cd0838b9ed74a008","type":"file","submodule_git_url":null,"size":13698,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"59e7669cd3c0871824ff58dc006cdc4343e6b790","created_at":"2021-10-23 16:55","time_from_now":"3年前","created_at_unix":1634979342}},{"name":"default_params.py","path":"default_params.py","sha":"7319de674a8a2ac0eddda89ec8d16ca6747881aa","type":"file","submodule_git_url":null,"size":613,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"b2e8227dd188da57a8baf01fdd1674d3a1e5ef2b","created_at":"2021-10-23 16:55","time_from_now":"3年前","created_at_unix":1634979351}},{"name":"fall_detector.py","path":"fall_detector.py","sha":"44c0e41b9e8c2769c476642c44f72f53f4bb85dc","type":"file","submodule_git_url":null,"size":6658,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"246c1846fc31ee3ed66aa9238f4e92c35215239a","created_at":"2021-10-23 16:56","time_from_now":"3年前","created_at_unix":1634979366}},{"name":"flowchart.png","path":"flowchart.png","sha":"40fa125b1c9aaabb7313d0a9895766adc5393aee","type":"file","submodule_git_url":null,"size":31097,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"Update README\n","sha":"6fc41db8b512f176a1661c98800271885ba09cd7","created_at":"2021-10-26 11:14","time_from_now":"3年前","created_at_unix":1635218070}},{"name":"helpers.py","path":"helpers.py","sha":"f612ecd5b3c934ca17dd7872f8e2ff8000e3f4a4","type":"file","submodule_git_url":null,"size":1879,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"Update helpers.py\n","sha":"b5de475d96d517886d53dcdcf0ae6fb34a3408f6","created_at":"2021-11-20 21:40","time_from_now":"3年前","created_at_unix":1637415645}},{"name":"inv_pendulum.py","path":"inv_pendulum.py","sha":"0d6fe9f7909bdd1570ae950f1591df233b8c5088","type":"file","submodule_git_url":null,"size":11637,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"6231e3e47b627c8b3d5eaa9dfce52549f39079f3","created_at":"2021-10-23 16:56","time_from_now":"3年前","created_at_unix":1634979398}},{"name":"lstm.sav","path":"lstm.sav","sha":"a9a5eca2e1650abb772d7881b6d509b148fdb407","type":"file","submodule_git_url":null,"size":100246,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"d278de7835be8ed8984b82f5aea6955407349711","created_at":"2021-10-23 16:56","time_from_now":"3年前","created_at_unix":1634979413}},{"name":"lstm2.sav","path":"lstm2.sav","sha":"c3f3e25284eaa20480622a569edb965bc85780e4","type":"file","submodule_git_url":null,"size":100525,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"19148d943e44e9893d61a130501bb4fb551d92ac","created_at":"2021-10-23 16:57","time_from_now":"3年前","created_at_unix":1634979429}},{"name":"model.py","path":"model.py","sha":"c161652f2c35505c17ed2d74bbe7f39dc93c570f","type":"file","submodule_git_url":null,"size":2036,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"27c7970235aea8d19e2a7469e36be59f887d2bb6","created_at":"2021-10-23 16:57","time_from_now":"3年前","created_at_unix":1634979439}},{"name":"process_data.py","path":"process_data.py","sha":"63c385990ac8670ccd8ef4b1ba38e10294146d44","type":"file","submodule_git_url":null,"size":974,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"9f195e374fb10767c05d48bfb45beaf0a103f96d","created_at":"2021-10-23 16:57","time_from_now":"3年前","created_at_unix":1634979450}},{"name":"process_data2.py","path":"process_data2.py","sha":"63c385990ac8670ccd8ef4b1ba38e10294146d44","type":"file","submodule_git_url":null,"size":974,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"07e7b5c2c6b74f06073be04f64e7912e1be0e01b","created_at":"2021-10-23 16:57","time_from_now":"3年前","created_at_unix":1634979459}},{"name":"processor.py","path":"processor.py","sha":"07a85f034296b555a7df9930a79d4a7393326edc","type":"file","submodule_git_url":null,"size":4210,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"e2cb9bc2c0546749b5e7e7314f1d47d7d77b23ff","created_at":"2021-10-23 16:57","time_from_now":"3年前","created_at_unix":1634979468}},{"name":"requirements.txt","path":"requirements.txt","sha":"93849745b8afab8e9d2d30d2612b3193bf7ccd65","type":"file","submodule_git_url":null,"size":406,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"17b68da48f6c1ff6b15b3d020235f9f5a1695299","created_at":"2021-10-23 16:58","time_from_now":"3年前","created_at_unix":1634979485}},{"name":"visual.py","path":"visual.py","sha":"2bd0e34853a01cdc1b7408c39183b4ade80ae5bd","type":"file","submodule_git_url":null,"size":5688,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"e6f1ceaef8d156c7e4f804936ae710999e9ff652","created_at":"2021-10-23 16:58","time_from_now":"3年前","created_at_unix":1634979502}},{"name":"writer.py","path":"writer.py","sha":"7fb11b8ff95406776982fc5f98b22dde7dcc53c2","type":"file","submodule_git_url":null,"size":1708,"is_readme_file":null,"content":null,"target":null,"commit":{"message":"ADD file via upload\n","sha":"b237d7c2e9af2e3494f60d61f4c79822f1733ff6","created_at":"2021-10-23 16:58","time_from_now":"3年前","created_at_unix":1634979512}}]},"projectMenu":[{"menu_name":"home"},{"menu_name":"code"},{"menu_name":"issues"},{"menu_name":"pulls"},{"menu_name":"devops"},{"menu_name":"versions"},{"menu_name":"wiki"},{"menu_name":"resources"},{"menu_name":"activity"}],"projectReadMe":"%7B%22type%22%3A%22file%22%2C%22encoding%22%3A%22base64%22%2C%22size%22%3A8684%2C%22name%22%3A%22README.md%22%2C%22path%22%3A%22README.md%22%2C%22content%22%3A%22%23%20%E5%9F%BA%E4%BA%8E%20OpenPifPaf%20%E7%9A%84%E5%A4%9A%E6%91%84%E5%83%8F%E5%A4%B4%E5%A4%9A%E4%BA%BA%E5%AE%9E%E6%97%B6%E8%B7%8C%E5%80%92%E7%AD%89%E5%BC%82%E5%B8%B8%E8%A1%8C%E4%B8%BA%E8%AF%86%E5%88%AB%E9%A2%84%E8%AD%A6%E5%BA%94%E7%94%A8%E7%A0%94%E7%A9%B6%5Cn%3Cp%20align%3D%5C%22center%5C%22%3E%5Cn%3Cimg%20src%3D%5C%22https%3A%2F%2Fgit.trustie.net%2Fpkwhiuqat%2FHumanFallDetectionLSTM%2Fraw%2Fbranch%2Fmaster%2Fdocuments%2Foutfallingdown1.gif%3Fraw%3Dtrue%5C%22%20alt%3D%5C%22outfallingdown%5C%22%2F%3E%5Cn%3Cp%20align%3D%5C%22center%5C%22%3E%5Cn%3Cimg%20src%3D%5C%22https%3A%2F%2Fgit.trustie.net%2Fpkwhiuqat%2FHumanFallDetectionLSTM%2Fraw%2Fbranch%2Fmaster%2Fdocuments%2Foutfallingdown2.gif%3Fraw%3Dtrue%5C%22%20alt%3D%5C%22outfallingdown%5C%22%20style%3D%5C%22zoom%3A90%25%3B%5C%22%2F%3E%5Cn%5Cn%5Cn%E5%88%A9%E7%94%A8%20OpenPifPaf%20%E5%AF%B9%E8%BE%93%E5%85%A5%E8%A7%86%E9%A2%91%E8%BF%9B%E8%A1%8C%E4%BA%BA%E4%BD%93%E5%A7%BF%E5%8A%BF%E4%BC%B0%E8%AE%A1%2C%E7%84%B6%E5%90%8E%E9%80%9A%E8%BF%87%E9%95%BF%E7%9F%AD%E6%97%B6%E8%AE%B0%E5%BF%86%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%EF%BC%88LSTM%EF%BC%89%E4%BB%8E%E5%89%8D%E9%9D%A2%E5%BE%97%E5%88%B0%E7%9A%84%E5%A7%BF%E5%8A%BF%E4%BF%A1%E6%81%AF%E4%B8%AD%E6%8F%90%E5%8F%96%E4%BA%94%E4%B8%AA%E6%97%B6%E9%97%B4%E5%92%8C%E7%A9%BA%E9%97%B4%E7%89%B9%E5%BE%81%EF%BC%88%E4%BD%9C%E4%B8%BA%E5%BD%93%E5%89%8D%E7%9A%84%20*X*%3Csub%3En%3C%2Fsub%3E%20%E8%BE%93%E5%85%A5%EF%BC%89%E4%BB%A5%E9%A2%84%E6%B5%8B%5C%22%E8%B7%8C%E5%80%92%5C%22%E5%8A%A8%E4%BD%9C%2C%E6%94%AF%E6%8C%81%E5%A4%9A%E6%91%84%E5%83%8F%E5%A4%B4%E5%92%8C%E5%A4%9A%E4%BA%BA%E5%AE%9E%E6%97%B6%E6%A3%80%E6%B5%8B%E3%80%82%E6%A8%A1%E5%9E%8B%E5%9C%A8%20UP-Fall%20Detection%20%E6%95%B0%E6%8D%AE%E9%9B%86%E4%B8%8A%E8%AE%AD%E7%BB%83%EF%BC%8C%E5%9F%BA%E4%BA%8E%20PyTorch%20%E5%AE%9E%E7%8E%B0%E3%80%82%5Cn%5Cn%3Cp%20align%3D%5C%22center%5C%22%3E%5Cn%3Cimg%20src%3D%5C%22https%3A%2F%2Fgit.trustie.net%2Fpkwhiuqat%2FHumanFallDetectionLSTM%2Fraw%2Fbranch%2Fmaster%2Fflowchart.png%3Fraw%3Dtrue%5C%22%20alt%3D%5C%22LSTM%5C%22%20style%3D%5C%22zoom%3A68%25%3B%5C%22%20%2F%3E%5Cn%3Cp%20align%3D%5C%22center%5C%22%3E%5Cn%3Cimg%20src%3D%5C%22https%3A%2F%2Fgit.trustie.net%2Fpkwhiuqat%2FHumanFallDetectionLSTM%2Fraw%2Fbranch%2Fmaster%2FLSTM.png%3Fraw%3Dtrue%5C%22%20alt%3D%5C%22LSTM%5C%22%20style%3D%5C%22zoom%3A45%25%3B%5C%22%20%2F%3E%5Cn%5Cn%23%23%20%E5%AE%89%E8%A3%85%5Cn%60%60%60shell%20script%5Cnpip%20install%20-r%20requirements.txt%5Cn%60%60%60%5Cn%5Cn%23%23%20%E4%BD%BF%E7%94%A8%5Cn%60%60%60shell%20script%5Cnpython%20fall_detector.py%20--num_cams%3D1%5Cn%60%60%60%5Cn%5Cn%5Cn%23%23%20%E5%AE%8C%E6%95%B4%E8%BF%90%E8%A1%8C%E4%BB%A3%E7%A0%81%5Cn%5Cn%20%20%20%20usage%3A%20fall_detector.py%20%5B-h%5D%20%5B--seed-threshold%20SEED_THRESHOLD%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--instance-threshold%20INSTANCE_THRESHOLD%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--keypoint-threshold%20KEYPOINT_THRESHOLD%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--decoder-workers%20DECODER_WORKERS%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--dense-connections%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--dense-coupling%20DENSE_COUPLING%5D%20%5B--caf-seeds%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--no-force-complete-pose%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--profile-decoder%20%5BPROFILE_DECODER%5D%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--cif-th%20CIF_TH%5D%20%5B--caf-th%20CAF_TH%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--connection-method%20%7Bmax%2Cblend%7D%5D%20%5B--greedy%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--checkpoint%20CHECKPOINT%5D%20%5B--basenet%20BASENET%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--headnets%20HEADNETS%20%5BHEADNETS%20...%5D%5D%20%5B--no-pretrain%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--two-scale%5D%20%5B--multi-scale%5D%20%5B--no-multi-scale-hflip%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--cross-talk%20CROSS_TALK%5D%20%5B--no-download-progress%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--head-dropout%20HEAD_DROPOUT%5D%20%5B--head-quad%20HEAD_QUAD%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--resolution%20RESOLUTION%5D%20%5B--resize%20RESIZE%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--num_cams%20NUM_CAMS%5D%20%5B--video%20VIDEO%5D%20%5B--debug%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--disable_cuda%5D%20%5B--plot_graph%5D%20%5B--joints%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--skeleton%5D%20%5B--coco_points%5D%20%5B--save_output%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--fps%20FPS%5D%20%5B--out-path%20OUT_PATH%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--input_direct%20INPUT_DIRECT%5D%5Cn%20%20%20%20%5Cn%20%20%20%20optional%20arguments%3A%5Cn%20%20%20%20%20%20-h%2C%20--help%20%20%20%20%20%20%20%20%20%20%20%20show%20this%20help%20message%20and%20exit%5Cn%20%20%20%20%20%20--resolution%20RESOLUTION%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20Resolution%20prescale%20factor%20from%20640x480.%20Will%20be%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20rounded%20to%20multiples%20of%2016.%20(default%3A%200.4)%5Cn%20%20%20%20%20%20--resize%20RESIZE%20%20%20%20%20%20%20Force%20input%20image%20resize.%20Example%20WIDTHxHEIGHT.%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20(default%3A%20None)%5Cn%20%20%20%20%20%20--num_cams%20NUM_CAMS%20%20%20Number%20of%20Cameras.%20(default%3A%201)%5Cn%20%20%20%20%20%20--video%20VIDEO%20%20%20%20%20%20%20%20%20Path%20to%20the%20video%20file.%20For%20single%20video%20fall%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20detection(--num_cams%3D1)%2C%20save%20your%20videos%20as%20abc.xyz%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20and%20set%20--video%3Dabc.xyz%20For%202%20video%20fall%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20detection(--num_cams%3D2)%2C%20save%20your%20videos%20as%20abc1.xyz%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%26%20abc2.xyz%20and%20set%20--video%3Dabc.xyz%20(default%3A%20None)%5Cn%20%20%20%20%20%20--debug%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20debug%20messages%20and%20autoreload%20(default%3A%20False)%5Cn%20%20%20%20%20%20--disable_cuda%20%20%20%20%20%20%20%20disables%20cuda%20support%20and%20runs%20from%20gpu%20(default%3A%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20False)%5Cn%20%20%20%20%5Cn%20%20%20%20decoder%20configuration%3A%5Cn%20%20%20%20%20%20--seed-threshold%20SEED_THRESHOLD%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20minimum%20threshold%20for%20seeds%20(default%3A%200.5)%5Cn%20%20%20%20%20%20--instance-threshold%20INSTANCE_THRESHOLD%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20filter%20instances%20by%20score%20(default%3A%200.2)%5Cn%20%20%20%20%20%20--keypoint-threshold%20KEYPOINT_THRESHOLD%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20filter%20keypoints%20by%20score%20(default%3A%20None)%5Cn%20%20%20%20%20%20--decoder-workers%20DECODER_WORKERS%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20number%20of%20workers%20for%20pose%20decoding%20(default%3A%20None)%5Cn%20%20%20%20%20%20--dense-connections%20%20%20use%20dense%20connections%20(default%3A%20False)%5Cn%20%20%20%20%20%20--dense-coupling%20DENSE_COUPLING%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20dense%20coupling%20(default%3A%200.01)%5Cn%20%20%20%20%20%20--caf-seeds%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%20False)%5Cn%20%20%20%20%20%20--no-force-complete-pose%5Cn%20%20%20%20%20%20--profile-decoder%20%5BPROFILE_DECODER%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20specify%20out%20.prof%20file%20or%20nothing%20for%20default%20file%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20name%20(default%3A%20None)%5Cn%20%20%20%20%5Cn%20%20%20%20CifCaf%20decoders%3A%5Cn%20%20%20%20%20%20--cif-th%20CIF_TH%20%20%20%20%20%20%20cif%20threshold%20(default%3A%200.1)%5Cn%20%20%20%20%20%20--caf-th%20CAF_TH%20%20%20%20%20%20%20caf%20threshold%20(default%3A%200.1)%5Cn%20%20%20%20%20%20--connection-method%20%7Bmax%2Cblend%7D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20connection%20method%20to%20use%2C%20max%20is%20faster%20(default%3A%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20blend)%5Cn%20%20%20%20%20%20--greedy%20%20%20%20%20%20%20%20%20%20%20%20%20%20greedy%20decoding%20(default%3A%20False)%5Cn%20%20%20%20%5Cn%20%20%20%20network%20configuration%3A%5Cn%20%20%20%20%20%20--checkpoint%20CHECKPOINT%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20Load%20a%20model%20from%20a%20checkpoint.%20Use%20%5C%22resnet50%5C%22%2C%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5C%22shufflenetv2k16w%5C%22%20or%20%5C%22shufflenetv2k30w%5C%22%20for%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20pretrained%20OpenPifPaf%20models.%20(default%3A%20None)%5Cn%20%20%20%20%20%20--basenet%20BASENET%20%20%20%20%20base%20network%2C%20e.g.%20resnet50%20(default%3A%20None)%5Cn%20%20%20%20%20%20--headnets%20HEADNETS%20%5BHEADNETS%20...%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20head%20networks%20(default%3A%20None)%5Cn%20%20%20%20%20%20--no-pretrain%20%20%20%20%20%20%20%20%20create%20model%20without%20ImageNet%20pretraining%20(default%3A%20True)%5Cn%20%20%20%20%20%20--two-scale%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%20False)%5Cn%20%20%20%20%20%20--multi-scale%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%20False)%5Cn%20%20%20%20%20%20--no-multi-scale-hflip%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%20True)%5Cn%20%20%20%20%20%20--cross-talk%20CROSS_TALK%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%200.0)%5Cn%20%20%20%20%20%20--no-download-progress%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20suppress%20model%20download%20progress%20bar%20(default%3A%20True)%5Cn%20%20%20%20%5Cn%20%20%20%20head%3A%5Cn%20%20%20%20%20%20--head-dropout%20HEAD_DROPOUT%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20zeroing%20probability%20of%20feature%20in%20head%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20input%20(default%3A%200.0)%5Cn%20%20%20%20%20%20--head-quad%20HEAD_QUAD%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20number%20of%20times%20to%20apply%20quad%20(subpixel%20conv)%20to%20heads%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20(default%3A%201)%5Cn%20%20%20%20%5Cn%20%20%20%20Visualisation%3A%5Cn%20%20%20%20%20%20--plot_graph%20%20%20%20%20%20%20%20%20%20Plot%20the%20graph%20of%20features%20extracted%20from%20keypoints%20of%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20pose.%20(default%3A%20False)%5Cn%20%20%20%20%20%20--joints%20%20%20%20%20%20%20%20%20%20%20%20%20%20Draw%20joints%20keypoints%20on%20the%20output%20video.%20(default%3A%20True)%5Cn%20%20%20%20%20%20--skeleton%20%20%20%20%20%20%20%20%20%20%20%20Draw%20skeleton%20on%20the%20output%20video.%20(default%3A%20True)%5Cn%20%20%20%20%20%20--coco_points%20%20%20%20%20%20%20%20%20Visualises%20the%20COCO%20points%20of%20the%20human%20pose.%20(default%3A%20False)%5Cn%20%20%20%20%20%20--save_output%20%20%20%20%20%20%20%20%20Save%20the%20result%20in%20a%20video%20file.%20Output%20videos%20are%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20saved%20in%20the%20same%20directory%20as%20input%20videos%20with%20%5C%22out%5C%22%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20appended%20at%20the%20start%20of%20the%20title%20(default%3A%20False)%5Cn%20%20%20%20%20%20--fps%20FPS%20%20%20%20%20%20%20%20%20%20%20%20%20FPS%20for%20the%20output%20video.%20(default%3A%2018)%5Cn%20%20%20%20%20%20--out-path%20OUT_PATH%20%20%20Save%20the%20output%20video%20at%20the%20path%20specified.%20.avi%20file%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20format.%20(default%3A%20result.avi)%5Cn%20%20%20%20%20%20--input_direct%20INPUT_DIRECT%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20Save%20the%20input%20link%20to%20images%20directory.%20(default%3A%20None)%5Cn-%20%E6%A8%A1%E5%9E%8B%E8%BE%93%E5%85%A5%E5%8F%AF%E4%BB%A5%E7%9B%B4%E6%8E%A5%E4%B8%BA%E6%91%84%E5%83%8F%E5%A4%B4%E4%BD%9C%E4%B8%BA%E8%A7%86%E9%A2%91%E6%BA%90%E6%88%96%E8%80%85%E7%94%A8%E4%B8%8B%E8%BD%BD%E5%A5%BD%E7%9A%84%E8%A7%86%E9%A2%91%E4%BD%9C%E4%B8%BA%E8%A7%86%E9%A2%91%E6%BA%90%E3%80%82%5Cn-%20%E5%A6%82%E6%9E%9C%E5%9C%A8%E9%9D%9E%E6%9C%8D%E5%8A%A1%E5%99%A8%E7%AB%AF%E5%8F%AF%E4%BB%A5%E9%80%9A%E8%BF%87%E8%AE%BE%E7%BD%AE%E5%9C%A8%E7%AA%97%E5%8F%A3%E8%BF%9B%E8%A1%8C%E5%AE%9E%E6%97%B6%E7%94%BB%E9%9D%A2%E7%9A%84%E6%98%BE%E7%A4%BA%E3%80%82%5Cn%5Cn%23%23%20%E5%8F%82%E8%80%83%5Cn-%20%5BOpenPifPaf%5D(https%3A%2F%2Fgithub.com%2Fopenpifpaf%2Fopenpifpaf)%5Cn-%20%5BUP-fall%20detection%20Dataset%5D(https%3A%2F%2Fdx.doi.org%2F10.3390%2Fs19091988)%5Cn-%20%5BMulti-camera%2C%20multi-person%2C%20and%20real-time%20fall%20detection%20using%20long%20short%20term%20memory%5D(https%3A%2F%2Fdoi.org%2F10.1117%2F12.2580700)%5Cn-%20Lei%20Wang%2C%20Du%20Q.%20Huynh%2C%20Piotr%20Koniusz.%20A%20Comparative%20Review%20of%20Recent%20Kinect-based%20Action%20Recognition%20Algorithms%5BJ%5D.%20IEEE%20TRANSACTIONS%20ON%20IMAGE%20PROCESSING%2C2019.%5Cn-%20Nusrat%20Tasnim%20%2C%20Mohammad%20Khairul%20Islam%20and%20Joong-Hwan%20Baek.%20Deep%20Learning%20Based%20Human%20Activity%20Recognition%20Using%20Spatio-Temporal%20Image%20Formation%20of%20Skeleton%20Joints%5BJ%5D.applied%20sciences.%5Cn-%20Mickael%20Delamare%2C%20Cyril%20Laville%2C%20Adnane%20Cabani%20and%20Houcine%20Chafouk.%20Graph%20Convolutional%20Networks%20Skeleton-based%20Action%20Recognition%20for%20Continuous%20Data%20Stream%3A%20A%20Sliding%20Window%20Approach%5BJ%5D.%2016th%20International%20Conference%20on%20Computer%20Vision%20Theory%20and%20Applications.%5Cn-%20Tasweer%20Ahmad%2C%20Lianwen%20Jin%2C%20Xin%20Zhang%2C%20Songxuan%20Lai%2C%20Guozhi%20Tang%2C%20and%20Luojun%20Lin.%20Graph%20Convolutional%20Neural%20Network%20for%20Human%20Action%20Recognition%3A%20A%20Comprehensive%20Survey%5BJ%5D.%5Cn-%20Zehua%20Sun%2C%20Jun%20Liu%2C%20Qiuhong%20Ke%2C%20Hossein%20Rahmani%2C%20Mohammed%20Bennamoun%2C%20and%20Gang%20Wang.%20Human%20Action%20Recognition%20from%20Various%20Data%20Modalities%3A%20A%20Review%5BJ%5D.%22%2C%22sha%22%3A%22a45ee914dd6bb5430e0c9a4980272fd80e6acd6b%22%2C%22replace_content%22%3A%22%23%20%E5%9F%BA%E4%BA%8E%20OpenPifPaf%20%E7%9A%84%E5%A4%9A%E6%91%84%E5%83%8F%E5%A4%B4%E5%A4%9A%E4%BA%BA%E5%AE%9E%E6%97%B6%E8%B7%8C%E5%80%92%E7%AD%89%E5%BC%82%E5%B8%B8%E8%A1%8C%E4%B8%BA%E8%AF%86%E5%88%AB%E9%A2%84%E8%AD%A6%E5%BA%94%E7%94%A8%E7%A0%94%E7%A9%B6%5Cn%3Cp%20align%3D%5C%22center%5C%22%3E%5Cn%3Cimg%20src%3D%5C%22https%3A%2F%2Fgit.trustie.net%2Fpkwhiuqat%2FHumanFallDetectionLSTM%2Fraw%2Fbranch%2Fmaster%2Fdocuments%2Foutfallingdown1.gif%3Fraw%3Dtrue%5C%22%20alt%3D%5C%22outfallingdown%5C%22%2F%3E%5Cn%3Cp%20align%3D%5C%22center%5C%22%3E%5Cn%3Cimg%20src%3D%5C%22https%3A%2F%2Fgit.trustie.net%2Fpkwhiuqat%2FHumanFallDetectionLSTM%2Fraw%2Fbranch%2Fmaster%2Fdocuments%2Foutfallingdown2.gif%3Fraw%3Dtrue%5C%22%20alt%3D%5C%22outfallingdown%5C%22%20style%3D%5C%22zoom%3A90%25%3B%5C%22%2F%3E%5Cn%5Cn%5Cn%E5%88%A9%E7%94%A8%20OpenPifPaf%20%E5%AF%B9%E8%BE%93%E5%85%A5%E8%A7%86%E9%A2%91%E8%BF%9B%E8%A1%8C%E4%BA%BA%E4%BD%93%E5%A7%BF%E5%8A%BF%E4%BC%B0%E8%AE%A1%2C%E7%84%B6%E5%90%8E%E9%80%9A%E8%BF%87%E9%95%BF%E7%9F%AD%E6%97%B6%E8%AE%B0%E5%BF%86%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%EF%BC%88LSTM%EF%BC%89%E4%BB%8E%E5%89%8D%E9%9D%A2%E5%BE%97%E5%88%B0%E7%9A%84%E5%A7%BF%E5%8A%BF%E4%BF%A1%E6%81%AF%E4%B8%AD%E6%8F%90%E5%8F%96%E4%BA%94%E4%B8%AA%E6%97%B6%E9%97%B4%E5%92%8C%E7%A9%BA%E9%97%B4%E7%89%B9%E5%BE%81%EF%BC%88%E4%BD%9C%E4%B8%BA%E5%BD%93%E5%89%8D%E7%9A%84%20*X*%3Csub%3En%3C%2Fsub%3E%20%E8%BE%93%E5%85%A5%EF%BC%89%E4%BB%A5%E9%A2%84%E6%B5%8B%5C%22%E8%B7%8C%E5%80%92%5C%22%E5%8A%A8%E4%BD%9C%2C%E6%94%AF%E6%8C%81%E5%A4%9A%E6%91%84%E5%83%8F%E5%A4%B4%E5%92%8C%E5%A4%9A%E4%BA%BA%E5%AE%9E%E6%97%B6%E6%A3%80%E6%B5%8B%E3%80%82%E6%A8%A1%E5%9E%8B%E5%9C%A8%20UP-Fall%20Detection%20%E6%95%B0%E6%8D%AE%E9%9B%86%E4%B8%8A%E8%AE%AD%E7%BB%83%EF%BC%8C%E5%9F%BA%E4%BA%8E%20PyTorch%20%E5%AE%9E%E7%8E%B0%E3%80%82%5Cn%5Cn%3Cp%20align%3D%5C%22center%5C%22%3E%5Cn%3Cimg%20src%3D%5C%22https%3A%2F%2Fgit.trustie.net%2Fpkwhiuqat%2FHumanFallDetectionLSTM%2Fraw%2Fbranch%2Fmaster%2Fflowchart.png%3Fraw%3Dtrue%5C%22%20alt%3D%5C%22LSTM%5C%22%20style%3D%5C%22zoom%3A68%25%3B%5C%22%20%2F%3E%5Cn%3Cp%20align%3D%5C%22center%5C%22%3E%5Cn%3Cimg%20src%3D%5C%22https%3A%2F%2Fgit.trustie.net%2Fpkwhiuqat%2FHumanFallDetectionLSTM%2Fraw%2Fbranch%2Fmaster%2FLSTM.png%3Fraw%3Dtrue%5C%22%20alt%3D%5C%22LSTM%5C%22%20style%3D%5C%22zoom%3A45%25%3B%5C%22%20%2F%3E%5Cn%5Cn%23%23%20%E5%AE%89%E8%A3%85%5Cn%60%60%60shell%20script%5Cnpip%20install%20-r%20requirements.txt%5Cn%60%60%60%5Cn%5Cn%23%23%20%E4%BD%BF%E7%94%A8%5Cn%60%60%60shell%20script%5Cnpython%20fall_detector.py%20--num_cams%3D1%5Cn%60%60%60%5Cn%5Cn%5Cn%23%23%20%E5%AE%8C%E6%95%B4%E8%BF%90%E8%A1%8C%E4%BB%A3%E7%A0%81%5Cn%5Cn%20%20%20%20usage%3A%20fall_detector.py%20%5B-h%5D%20%5B--seed-threshold%20SEED_THRESHOLD%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--instance-threshold%20INSTANCE_THRESHOLD%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--keypoint-threshold%20KEYPOINT_THRESHOLD%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--decoder-workers%20DECODER_WORKERS%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--dense-connections%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--dense-coupling%20DENSE_COUPLING%5D%20%5B--caf-seeds%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--no-force-complete-pose%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--profile-decoder%20%5BPROFILE_DECODER%5D%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--cif-th%20CIF_TH%5D%20%5B--caf-th%20CAF_TH%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--connection-method%20%7Bmax%2Cblend%7D%5D%20%5B--greedy%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--checkpoint%20CHECKPOINT%5D%20%5B--basenet%20BASENET%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--headnets%20HEADNETS%20%5BHEADNETS%20...%5D%5D%20%5B--no-pretrain%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--two-scale%5D%20%5B--multi-scale%5D%20%5B--no-multi-scale-hflip%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--cross-talk%20CROSS_TALK%5D%20%5B--no-download-progress%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--head-dropout%20HEAD_DROPOUT%5D%20%5B--head-quad%20HEAD_QUAD%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--resolution%20RESOLUTION%5D%20%5B--resize%20RESIZE%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--num_cams%20NUM_CAMS%5D%20%5B--video%20VIDEO%5D%20%5B--debug%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--disable_cuda%5D%20%5B--plot_graph%5D%20%5B--joints%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--skeleton%5D%20%5B--coco_points%5D%20%5B--save_output%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--fps%20FPS%5D%20%5B--out-path%20OUT_PATH%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5B--input_direct%20INPUT_DIRECT%5D%5Cn%20%20%20%20%5Cn%20%20%20%20optional%20arguments%3A%5Cn%20%20%20%20%20%20-h%2C%20--help%20%20%20%20%20%20%20%20%20%20%20%20show%20this%20help%20message%20and%20exit%5Cn%20%20%20%20%20%20--resolution%20RESOLUTION%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20Resolution%20prescale%20factor%20from%20640x480.%20Will%20be%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20rounded%20to%20multiples%20of%2016.%20(default%3A%200.4)%5Cn%20%20%20%20%20%20--resize%20RESIZE%20%20%20%20%20%20%20Force%20input%20image%20resize.%20Example%20WIDTHxHEIGHT.%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20(default%3A%20None)%5Cn%20%20%20%20%20%20--num_cams%20NUM_CAMS%20%20%20Number%20of%20Cameras.%20(default%3A%201)%5Cn%20%20%20%20%20%20--video%20VIDEO%20%20%20%20%20%20%20%20%20Path%20to%20the%20video%20file.%20For%20single%20video%20fall%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20detection(--num_cams%3D1)%2C%20save%20your%20videos%20as%20abc.xyz%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20and%20set%20--video%3Dabc.xyz%20For%202%20video%20fall%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20detection(--num_cams%3D2)%2C%20save%20your%20videos%20as%20abc1.xyz%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%26%20abc2.xyz%20and%20set%20--video%3Dabc.xyz%20(default%3A%20None)%5Cn%20%20%20%20%20%20--debug%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20debug%20messages%20and%20autoreload%20(default%3A%20False)%5Cn%20%20%20%20%20%20--disable_cuda%20%20%20%20%20%20%20%20disables%20cuda%20support%20and%20runs%20from%20gpu%20(default%3A%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20False)%5Cn%20%20%20%20%5Cn%20%20%20%20decoder%20configuration%3A%5Cn%20%20%20%20%20%20--seed-threshold%20SEED_THRESHOLD%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20minimum%20threshold%20for%20seeds%20(default%3A%200.5)%5Cn%20%20%20%20%20%20--instance-threshold%20INSTANCE_THRESHOLD%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20filter%20instances%20by%20score%20(default%3A%200.2)%5Cn%20%20%20%20%20%20--keypoint-threshold%20KEYPOINT_THRESHOLD%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20filter%20keypoints%20by%20score%20(default%3A%20None)%5Cn%20%20%20%20%20%20--decoder-workers%20DECODER_WORKERS%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20number%20of%20workers%20for%20pose%20decoding%20(default%3A%20None)%5Cn%20%20%20%20%20%20--dense-connections%20%20%20use%20dense%20connections%20(default%3A%20False)%5Cn%20%20%20%20%20%20--dense-coupling%20DENSE_COUPLING%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20dense%20coupling%20(default%3A%200.01)%5Cn%20%20%20%20%20%20--caf-seeds%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%20False)%5Cn%20%20%20%20%20%20--no-force-complete-pose%5Cn%20%20%20%20%20%20--profile-decoder%20%5BPROFILE_DECODER%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20specify%20out%20.prof%20file%20or%20nothing%20for%20default%20file%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20name%20(default%3A%20None)%5Cn%20%20%20%20%5Cn%20%20%20%20CifCaf%20decoders%3A%5Cn%20%20%20%20%20%20--cif-th%20CIF_TH%20%20%20%20%20%20%20cif%20threshold%20(default%3A%200.1)%5Cn%20%20%20%20%20%20--caf-th%20CAF_TH%20%20%20%20%20%20%20caf%20threshold%20(default%3A%200.1)%5Cn%20%20%20%20%20%20--connection-method%20%7Bmax%2Cblend%7D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20connection%20method%20to%20use%2C%20max%20is%20faster%20(default%3A%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20blend)%5Cn%20%20%20%20%20%20--greedy%20%20%20%20%20%20%20%20%20%20%20%20%20%20greedy%20decoding%20(default%3A%20False)%5Cn%20%20%20%20%5Cn%20%20%20%20network%20configuration%3A%5Cn%20%20%20%20%20%20--checkpoint%20CHECKPOINT%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20Load%20a%20model%20from%20a%20checkpoint.%20Use%20%5C%22resnet50%5C%22%2C%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5C%22shufflenetv2k16w%5C%22%20or%20%5C%22shufflenetv2k30w%5C%22%20for%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20pretrained%20OpenPifPaf%20models.%20(default%3A%20None)%5Cn%20%20%20%20%20%20--basenet%20BASENET%20%20%20%20%20base%20network%2C%20e.g.%20resnet50%20(default%3A%20None)%5Cn%20%20%20%20%20%20--headnets%20HEADNETS%20%5BHEADNETS%20...%5D%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20head%20networks%20(default%3A%20None)%5Cn%20%20%20%20%20%20--no-pretrain%20%20%20%20%20%20%20%20%20create%20model%20without%20ImageNet%20pretraining%20(default%3A%20True)%5Cn%20%20%20%20%20%20--two-scale%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%20False)%5Cn%20%20%20%20%20%20--multi-scale%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%20False)%5Cn%20%20%20%20%20%20--no-multi-scale-hflip%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%20True)%5Cn%20%20%20%20%20%20--cross-talk%20CROSS_TALK%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20(default%3A%200.0)%5Cn%20%20%20%20%20%20--no-download-progress%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20suppress%20model%20download%20progress%20bar%20(default%3A%20True)%5Cn%20%20%20%20%5Cn%20%20%20%20head%3A%5Cn%20%20%20%20%20%20--head-dropout%20HEAD_DROPOUT%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%5Bexperimental%5D%20zeroing%20probability%20of%20feature%20in%20head%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20input%20(default%3A%200.0)%5Cn%20%20%20%20%20%20--head-quad%20HEAD_QUAD%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20number%20of%20times%20to%20apply%20quad%20(subpixel%20conv)%20to%20heads%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20(default%3A%201)%5Cn%20%20%20%20%5Cn%20%20%20%20Visualisation%3A%5Cn%20%20%20%20%20%20--plot_graph%20%20%20%20%20%20%20%20%20%20Plot%20the%20graph%20of%20features%20extracted%20from%20keypoints%20of%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20pose.%20(default%3A%20False)%5Cn%20%20%20%20%20%20--joints%20%20%20%20%20%20%20%20%20%20%20%20%20%20Draw%20joints%20keypoints%20on%20the%20output%20video.%20(default%3A%20True)%5Cn%20%20%20%20%20%20--skeleton%20%20%20%20%20%20%20%20%20%20%20%20Draw%20skeleton%20on%20the%20output%20video.%20(default%3A%20True)%5Cn%20%20%20%20%20%20--coco_points%20%20%20%20%20%20%20%20%20Visualises%20the%20COCO%20points%20of%20the%20human%20pose.%20(default%3A%20False)%5Cn%20%20%20%20%20%20--save_output%20%20%20%20%20%20%20%20%20Save%20the%20result%20in%20a%20video%20file.%20Output%20videos%20are%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20saved%20in%20the%20same%20directory%20as%20input%20videos%20with%20%5C%22out%5C%22%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20appended%20at%20the%20start%20of%20the%20title%20(default%3A%20False)%5Cn%20%20%20%20%20%20--fps%20FPS%20%20%20%20%20%20%20%20%20%20%20%20%20FPS%20for%20the%20output%20video.%20(default%3A%2018)%5Cn%20%20%20%20%20%20--out-path%20OUT_PATH%20%20%20Save%20the%20output%20video%20at%20the%20path%20specified.%20.avi%20file%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20format.%20(default%3A%20result.avi)%5Cn%20%20%20%20%20%20--input_direct%20INPUT_DIRECT%5Cn%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20Save%20the%20input%20link%20to%20images%20directory.%20(default%3A%20None)%5Cn-%20%E6%A8%A1%E5%9E%8B%E8%BE%93%E5%85%A5%E5%8F%AF%E4%BB%A5%E7%9B%B4%E6%8E%A5%E4%B8%BA%E6%91%84%E5%83%8F%E5%A4%B4%E4%BD%9C%E4%B8%BA%E8%A7%86%E9%A2%91%E6%BA%90%E6%88%96%E8%80%85%E7%94%A8%E4%B8%8B%E8%BD%BD%E5%A5%BD%E7%9A%84%E8%A7%86%E9%A2%91%E4%BD%9C%E4%B8%BA%E8%A7%86%E9%A2%91%E6%BA%90%E3%80%82%5Cn-%20%E5%A6%82%E6%9E%9C%E5%9C%A8%E9%9D%9E%E6%9C%8D%E5%8A%A1%E5%99%A8%E7%AB%AF%E5%8F%AF%E4%BB%A5%E9%80%9A%E8%BF%87%E8%AE%BE%E7%BD%AE%E5%9C%A8%E7%AA%97%E5%8F%A3%E8%BF%9B%E8%A1%8C%E5%AE%9E%E6%97%B6%E7%94%BB%E9%9D%A2%E7%9A%84%E6%98%BE%E7%A4%BA%E3%80%82%5Cn%5Cn%23%23%20%E5%8F%82%E8%80%83%5Cn-%20%5BOpenPifPaf%5D(https%3A%2F%2Fgithub.com%2Fopenpifpaf%2Fopenpifpaf)%5Cn-%20%5BUP-fall%20detection%20Dataset%5D(https%3A%2F%2Fdx.doi.org%2F10.3390%2Fs19091988)%5Cn-%20%5BMulti-camera%2C%20multi-person%2C%20and%20real-time%20fall%20detection%20using%20long%20short%20term%20memory%5D(https%3A%2F%2Fdoi.org%2F10.1117%2F12.2580700)%5Cn-%20Lei%20Wang%2C%20Du%20Q.%20Huynh%2C%20Piotr%20Koniusz.%20A%20Comparative%20Review%20of%20Recent%20Kinect-based%20Action%20Recognition%20Algorithms%5BJ%5D.%20IEEE%20TRANSACTIONS%20ON%20IMAGE%20PROCESSING%2C2019.%5Cn-%20Nusrat%20Tasnim%20%2C%20Mohammad%20Khairul%20Islam%20and%20Joong-Hwan%20Baek.%20Deep%20Learning%20Based%20Human%20Activity%20Recognition%20Using%20Spatio-Temporal%20Image%20Formation%20of%20Skeleton%20Joints%5BJ%5D.applied%20sciences.%5Cn-%20Mickael%20Delamare%2C%20Cyril%20Laville%2C%20Adnane%20Cabani%20and%20Houcine%20Chafouk.%20Graph%20Convolutional%20Networks%20Skeleton-based%20Action%20Recognition%20for%20Continuous%20Data%20Stream%3A%20A%20Sliding%20Window%20Approach%5BJ%5D.%2016th%20International%20Conference%20on%20Computer%20Vision%20Theory%20and%20Applications.%5Cn-%20Tasweer%20Ahmad%2C%20Lianwen%20Jin%2C%20Xin%20Zhang%2C%20Songxuan%20Lai%2C%20Guozhi%20Tang%2C%20and%20Luojun%20Lin.%20Graph%20Convolutional%20Neural%20Network%20for%20Human%20Action%20Recognition%3A%20A%20Comprehensive%20Survey%5BJ%5D.%5Cn-%20Zehua%20Sun%2C%20Jun%20Liu%2C%20Qiuhong%20Ke%2C%20Hossein%20Rahmani%2C%20Mohammed%20Bennamoun%2C%20and%20Gang%20Wang.%20Human%20Action%20Recognition%20from%20Various%20Data%20Modalities%3A%20A%20Review%5BJ%5D.%22%7D"},"zoneReducer":{"zoneDetail":"","newsDetail":""}}
基于 OpenPifPaf 的多摄像头多人实时跌倒等异常行为识别预警应用研究
利用 OpenPifPaf 对输入视频进行人体姿势估计,然后通过长短时记忆神经网络(LSTM)从前面得到的姿势信息中提取五个时间和空间特征(作为当前的 Xn 输入)以预测”跌倒”动作,支持多摄像头和多人实时检测。模型在 UP-Fall Detection 数据集上训练,基于 PyTorch 实现。
安装
使用
完整运行代码
参考