도구

블로그

Jun 23, 2024

도구

Scientific Reports 13권, 기사 번호: 9591(2023) 이 기사 인용 573 액세스 1 Altmetric Metrics 세부 정보 수술 데이터 정량화 및 이해를 통해 작업 및 작업의 미묘한 패턴이 노출됩니다.

Scientific Reports 13권, 기사 번호: 9591(2023) 이 기사 인용

573 액세스

1 알트메트릭

측정항목 세부정보

수술 데이터 정량화 및 이해는 작업 및 성능의 미묘한 패턴을 드러냅니다. 인공 지능을 갖춘 수술 장치를 사용하면 외과 의사에게 가상 수술 지원이라는 개인화되고 객관적인 성능 평가가 제공됩니다. 여기에서는 센서화된 양극 겸자에서 얻은 수술 해부에서 도구-조직 상호 작용 힘 데이터를 사용하여 수술 기교를 분석하기 위해 개발된 기계 학습 모델을 제시합니다. 다양한 두개내 병리에 대한 선택적 수술 치료를 포함하는 50가지 신경외과 수술을 사용하여 데이터 모델링을 수행했습니다. 데이터 수집은 센서화된 양극 겸자인 SmartForceps System을 사용하여 다양한 경험 수준을 가진 13명의 외과의사에 의해 수행되었습니다. 기계 학습 알고리즘은 세 가지 주요 목적, 즉 TU-Net을 사용하여 도구 활용의 활성 기간을 얻기 위한 힘 프로파일 분할, 전문가 및 초보자로의 수술 기술 분류, 응고 대 비응고의 두 가지 기본 범주로의 수술 작업 인식을 위한 설계 및 구현으로 구성되었습니다. - FTFIT 딥러닝 아키텍처를 이용한 응고. 외과 의사에 대한 최종 보고서는 전문가 수준 외과 의사와 비교한 성능 측정 차트와 함께 기술 및 작업 클래스로 분류된 인식된 힘 적용 세그먼트가 포함된 대시보드였습니다. 약 3.6K의 도구 작동 기간을 포함하는 161시간 이상의 수술실 데이터 기록이 활용되었습니다. 모델링 결과 TU-Net을 사용한 힘 프로필 분할의 경우 Weighted F1-score = 0.95 및 AUC = 0.99, 수술 기술 분류의 경우 Weighted F1-score = 0.71 및 AUC = 0.81, 수술 기술 분류의 경우 Weighted F1-score = 0.82 및 AUC = 0.89가 나왔습니다. FTFIT 신경망에 증강된 손으로 만든 기능의 하위 집합을 사용하는 수술 작업 인식. 이 연구는 클라우드에서 새로운 기계 학습 모듈을 제공하여 수술 중 수술 성능 모니터링 및 평가를 위한 엔드투엔드 플랫폼을 지원합니다. 전문적인 연결을 위한 보안 애플리케이션을 통해 액세스하면 데이터 기반 학습의 패러다임이 확립됩니다.

클라우드 연결을 기반으로 하는 인공 지능(AI)을 통합하여 수술실(OR) 내부 및 전체에서 데이터를 집계하면 의료 기기 및 시스템의 최적 사용에 대한 체계적인 피드백을 위한 객관적인 도구를 제공합니다. 이는 수술의 안전성을 향상하고 환자 치료의 표준화를 위한 디지털 혁신을 활용하는 데 중요합니다. 센서 지원 및 데이터 기반 수술 장치를 통해 AI를 구현하면 견습을 기반으로 하는 전통적이고 주관적인 교육을 객관적이고 위협적이지 않은 패러다임1으로 전환할 수 있습니다. 수술 단계 인식을 통한 상황 인식 지원은 수술 수행에 대한 특정 분석 피드백을 통해 훈련 과정을 더욱 촉진하고 개선할 수 있습니다2. 수술 코칭의 새로운 개척지인 수술 데이터 과학은 이러한 데이터의 수집, 구조화, 분석 및 모델링과 관련된 새로운 프레임워크를 통해 정의될 수 있습니다3,4.

수술의 기계 학습 알고리즘은 초기 단계이지만 간질, 뇌종양, 척추 병변 및 뇌혈관 장애를 포함한 다양한 병리학에 대한 치료를 향상시킬 수 있습니다5. 센서 기반 데이터를 사용하면 수술 조작 및 작업 흐름에서 추출된 의미 있는 기능을 사용하여 외과의의 기민성과 기술 능력을 정확하게 포착할 수 있습니다. 이는 결과적으로 졸업된 수술 훈련 기간 동안 정량적 피드백 측정 기준을 제공하는 데 도움이 될 것입니다. 악기의 움직임은 과거 실험실 환경6,7,8에서 성능 및 기술 차별의 운동학적 측정으로 사용되었습니다. 기술 평가를 위해 OSATS(Objective Structured Assessment of Technical Skill) 및 GEARS(Global Evaluative Assessment of Robotic Skill) 매뉴얼 메트릭9을 준수하는 수술 비디오를 기반으로 한 딥 러닝 기반 장비 추적 시스템이 구현되었습니다. 대장 수술의 수술 기술 평가 및 탐색은 겸자 유형 및 비디오 데이터10의 개체 인식을 통해 촉진될 수 있습니다. 또한 비디오 시간 패턴 분석에서 추출된 모션 특징을 사용하여 수술 동작을 분류하고 분석했습니다. 수술 기술 분석 문헌에 대한 포괄적인 검토도 출판되었습니다13. 이 리뷰에 포함된 원고는 도구-조직 힘14,15에 제한된 관심을 갖고 운동학(61%) 및 비디오(29%) 데이터를 사용했습니다. 여기에 사용된 ML 모델은 ANN(Artificial Neural Networks), HMM(Hidden Markov Models), SVM(Support Vector Machines)이었으며 모두 80% 이상의 정확도를 보였습니다. 그러나 그들의 연구 결과는 실제 수술 데이터(12%)가 제한적이었고 외과 의사에게 해석 가능하고 임상적으로 관련된 피드백을 제공하기 위한 프레임워크 응용 프로그램이 부족했습니다.

 4 years (n = 4), and one fellow./p>