This paper was converted on www.awesomepapers.org from LaTeX by an anonymous user.
Want to know more? Visit the Converter page.

\marginsize

2.4cm2.0cm3.2cm3.0cm

Phát triển nền tảng Tương tác người - Robot Tay máy đôi dựa trên ROS và Trí tuệ nhân tạo đa thể thức

Nguyễn Cảnh Thanh, Nguyễn Bá Phượng, Trần Hồng Quân, Đỗ Ngọc Minh, Đinh Triều Dương
và Hoàng Văn Xiêm
Bộ môn Kỹ thuật Robot, Khoa Điện tử - Viễn Thông, Trường Đại học Công Nghệ - Đại học Quốc gia Hà Nội
Email: [email protected], [email protected], [email protected],
[email protected], [email protected], [email protected]
Abstract

Trong bài báo, chúng tôi đề xuất phát triển nền tảng tương tác giữa người và hệ thống Robot Tay máy đôi dựa trên Robot Operating System (ROS) và mô hình trí tuệ nhân tạo đa thể thức. Nền tảng đề xuất của chúng tôi bao gồm hai thành phần chính: hệ thống phần cứng tay máy đôi và phần mềm bao gồm các tác vụ xử lý ảnh, xử lý ngôn ngữ tự nhiên dựa trên 3D camera và máy tính nhúng. Đầu tiên, chúng tôi thiết kế và xây dựng một hệ thống Robot tay máy đôi với sai số vị trí nhỏ hơn 2cm, có thể hoạt động độc lập, thực hiện các nhiệm vụ trong công nghiệp, dịch vụ đồng thời mô phỏng, mô hình hóa robot trong hệ điều hành ROS. Thứ hai, các mô hình trí tuệ nhân tạo trong xử lý ảnh được tích hợp nhằm thực hiện các tác vụ gắp và phân loại vật thể với độ chính xác trên 90%. Cuối cùng, chúng tôi xây dựng phần mềm điều khiển từ xa bằng giọng nói thông qua mô hình xử lý ngôn ngữ tự nhiên. Thực nghiệm chứng mình độ chính xác của mô hình trí tuệ nhân tạo đa thể thức và sư linh hoạt trong tương tác của hệ thống Robot tay máy đôi trong môi trường hoạt động với con người.

Index Terms:
Robot tay máy đôi, Trí tuệ nhân tạo, ROS, HRI.

I GI´I THI.U

Hiện nay, ngành robot đang phát triển, sử dụng rộng rãi đặc biệt là robot tay máy. Việc triển khai, làm việc trong môi trường chứa nhiều rủi ro, không đảm bảo đòi hỏi sự ra đời của các loại robot có thể thực hiện các chức năng thay thế con người đồng thời có thể điều khiển thông minh từ xa. Để đối phó với các nhiệm vụ phức tạp và môi trường làm việc thay đổi, robot công nghiệp truyền thống không thể đáp ứng nhu cầu của các nhiệm vụ. So với điều này, robot tay máy đôi có không gian làm việc lớn hơn và tính linh hoạt cao hơn từ đó có thể đáp ứng tốt hơn các yêu cầu về độ phức tạp và độ chính xác cao trong các nhiệm vụ như sản xuất công nghiệp, dịch vụ, …

Việc điều khiển robot theo cách truyền thồng đòi hỏi người điều khiển phải tốn rất nhiều thời gian có kĩ năng chuyên sâu trong kỹ thuật [1]. Tương tác người-robot phát triển thúc đẩy hiệu quả công việc dựa trên phương thức điều khiển nhanh chóng tiêu biểu là điều khiển bằng nhận dạng cử chỉ, thái độ, và mới nhất là giọng nói của con người. Các nghiên cứu chỉ ra hiệu quả vượt trội của việc sử dụng HRI thông qua màn hình, camera so với các phương pháp trước đây [2].

Hệ điều hành ROS (Robot Operating System) là hệ điều hành mã nguồn mở phổ biến nhất trong công nghệ robot hiện nay [3]. ROS cung cấp nhiều công cụ phát triển và các tệp thư viện phong phú để phát triển robot, giúp cải thiện đáng kể hiệu quả phát triển robot và tiết kiệm chi phí phát triển [4].

Các nghiên cứu [4, 5, 6] xây dựng hệ thống tay máy đôi trên nền tảng ROS. Nghiên cứu [5] thiết kế hệ robot di động tay máy đôi từ đó tạo nên khung điều khiển thực tế đồng thời thiết lâp các ràng buộc nhằm xác minh tính khả thi của nền tảng. Nghiên cứu [4] đưa ra mô hình động học của robot tay máy đôi đồng thời lập quỹ đạo dựa trên tập mô hình robot trong Moveit sau đó trực quan hóa và xác minh tính đúng đắn dựa trên Rviz.

Bài [7, 8, 9, 10] ứng dụng trí tuệ nhân tạo trong việc điều khiển, tương tác người-robot. Nghiên cứu [7] sử dụng nhận dạng giọng nói và thiết kế giao diện nhằm điều khiển robot NAO, robot sử dụng máy ảnh để đếm số lượng mặt hướng tới nó nhằm đo sự chú ý. Nghiên cứu [8] đề xuất nâng cao độ chính xác trong việc xác định vị trí thực thi của robot thông qua xử lý ảnh và điều khiển robot bằng giọng nói. Nghiên cứu [9] xây dựng và điều khiển robot tay bằng giọng nói, kết quả cho thấy tính khả thi cũng như khả năng áp dụng thực tế. Nghiên cứu [10] điều khiển robot hợp tác bằng học củng cố sâu từ đó hoàn thành được các nhiệm vụ hợp tác và khả năng thich ứng tốt hơn tuy nhiên yêu cầu bộ xử lý có cấu hình cao, khó có thể nhúng trực tiếp trong robot.

Trong bài báo này, chúng tôi phát triển nền tảng Robot tay máy đôi dựa trên ROS và tương tác người-robot với ba đóng góp chính. Thứ nhất, chúng tôi xây dựng được hệ thống tay máy đôi hoàn hiện bao gồm cả phần cứng và phần mềm. Tiếp theo, chúng tôi kết hợp xử lý ảnh giúp robot phân loại vật thể. Cuối cùng, hệ thống phần mềm điều khiển từ xa qua giọng nói được triển khai. Tất cả các thành phần đều được khai thác trên hệ điều hành ROS.

II Đ` XU´T H. TH´NG

Hình 1 mô tả tổng quan hệ thống tay máy đôi bao gồm bốn thành phần chính: {1} khối giao diện đồ họa người dùng (GUI) và điều khiển; {2} khối xử lý ngôn ngữ tự nhiên, chuyển thành các câu lệnh điều khiển tay máy đôi; {3} khối thị giác, xác định vật thể, tọa độ gắp vật và {4} khối điều khiển chuyển động của robot. Hệ động được thiết kế tối ưu và mô-dun hóa trong đó khối {1}, {4} được mô tả chi tiết ở phần II-B và khối {2}, {3} trình bày trong phần II-C.

Refer to caption
Figure 1: Sơ đồ tổng quan hệ thống tay máy đôi

II-A Thiết kế nền tảng tay máy đôi

Cấu trúc thiết kế của nền tảng robot tay máy đôi được thể hiện trong Hình 2 với vị trí chi tiết của các thiết bị. Hình 3 mô tả sơ đồ kết nối thành phần hệ thống trong đó robot được cấu thành bởi ba thành phần chính:

Refer to caption
Figure 2: Vị trí các thiết bị trên khung Robot
  • Khối xử lý ảnh và xử lý ngôn ngữ - nhận thông tin từ môi trường thông qua camera realsene D455 và micro sau đó được xử lý thông tin qua máy tính nhúng Jetson Xavier AGX;

  • Khối chuyển động gồm 12 servo tương ứng với từng khớp và tay gắp, Arduino Mega chịu trách nhiệm điều khiển trực tiếp động cơ. Các thông tin được quản lý bởi Raspberry Pi thông qua các tính toán động học, động học ngược.

  • Khối nguồn - cung cấp điện áp cho hai khối trên bao gồm một bộ chuyển đổi từ 36V xuống 5V cho khối chuyển động và bộ chuyển đổi từ 36V xuống 19V cho khối xử lý ảnh và ngôn ngữ.

Refer to caption
Figure 3: Sơ đồ kết nối các linh kiện của robot

Để mở rộng phạm vi chuyển động của robot, chúng tôi đã sử dụng các thanh nhôm định hình để gắn cánh tay cao hơn. Robot có kích thước 120cm x 40cm x 22cm tương ứng với chiều cao, chiều dài và chiều rộng trong đó mỗi cánh tay dài khoảng 78cm tính từ gốc tay tới đầu tay gắp. Robot được gia công bằng phương pháp in 3D với vật liệu nhựa với từng mô-đun riêng biệt nên dễ dàng lắp đặt, điều chỉnh đồng thời đáp ứng được các nhu cầu hoạt động nhẹ.

Hình 4 là các trục tọa độ được gắn tại tâm của các khớp quay, trục zz là trục khâu tiếp theo quay quanh nó, trục xx thường được đặt dọc theo pháp tuyến chung và hướng từ khớp thứ ii đến i+1i+1, trục y được xác định theo quy tắc bàn tay phải.

Refer to caption
Figure 4: Hệ trục tọa độ của robot

Tiếp theo chúng tôi lập bảng tham số D-H và tính toán ma trận chuyển đổi cho từng khớp. Kết quả cuối cùng thu được phương trình động học theo phương trình (1):

T=A10A21A32A43A54=[ixjxkxpxiyjykypyizjzkzpz0001]T=A^{0}_{1}*A^{1}_{2}*A^{2}_{3}*A^{3}_{4}*A^{4}_{5}\\ =\begin{bmatrix}i_{x}&j_{x}&k_{x}&p_{x}\\ i_{y}&j_{y}&k_{y}&p_{y}\\ i_{z}&j_{z}&k_{z}&p_{z}\\ 0&0&0&1\end{bmatrix} (1)

trong đó,

ix=sin1sin5+cos5cos1cos234i_{x}=sin_{1}sin_{5}+cos_{5}cos_{1}cos_{234}

jx=sin5cos1cos234cos5sin1j_{x}=-sin_{5}cos_{1}cos_{234}-cos_{5}sin_{1}

iy=cos1sin5+cos5sin1cos234i_{y}=cos_{1}sin_{5}+cos_{5}sin_{1}cos_{234}

Jy=cos5sin1sin5sin1cos234J_{y}=cos_{5}sin_{1}-sin_{5}sin_{1}cos_{234}

iz=cos5sin234i_{z}=cos_{5}sin_{234}

jz=sin5sin234j_{z}=-sin_{5}sin_{234}

kx=cos1sin234k_{x}=-cos_{1}sin_{234}

px=cos1(a2cos2dEsin234+a3cos23)p_{x}=cos_{1}(a_{2}cos_{2}-d_{E}sin_{234}+a_{3}cos_{23})

ky=sin1sin234k_{y}=-sin_{1}sin_{234}

py=sin1(a2cos2dEsin234+a3cos23)p_{y}=sin_{1}(a_{2}cos_{2}-d_{E}sin_{234}+a_{3}cos_{23})

kz=cos234k_{z}=cos_{234}

pz=d+a2sin2+a3sin23+dEcos234p_{z}=d+a_{2}sin_{2}+a_{3}sin_{23}+d_{E}cos_{234}

Mục đích của bài toán động học nghịch đảo là tính toán các góc khớp của robot khi vị trí của hiệu ứng cuối đã được biết. Vector góc khớp được xác định theo công thức (2):

q=[θ1θ2θ3θ4θ5]T\displaystyle q=\begin{bmatrix}\theta_{1}&\theta_{2}&\theta_{3}&\theta_{4}&\theta_{5}\end{bmatrix}^{T} (2)

Phương trình động học ngược [11] của robot thu được như sau:

θ1=tan1pypx\displaystyle\theta_{1}=\tan^{-1}\frac{p_{y}}{p_{x}} (3)
θ2=tan1n(a2+a3cos3)ma3sin3ba3sin3+m(a2+a3cos3)\displaystyle\theta_{2}=\tan^{-1}{\frac{n(a_{2}+a_{3}cos_{3})-ma_{3}sin_{3}}{ba_{3}sin_{3}+m(a_{2}+a_{3}cos_{3})}} (4)
θ3=cos1m2+n2a22a322a2a3\displaystyle\theta_{3}=\cos^{-1}{\frac{m^{2}+n^{2}-a^{2}_{2}-a^{2}_{3}}{2a_{2}a_{3}}} (5)
θ234=tan1a2cos2+a3cos23pxcos1pysin1pzda2sin2a3sin23\displaystyle\theta_{234}=\tan^{-1}{\frac{a_{2}cos_{2}+a_{3}cos_{23}-p_{x}cos_{1}-p_{y}sin_{1}}{p_{z}-d-a_{2}sin_{2}-a_{3}sin_{23}}} (6)
θ3=θ234θ2θ3\displaystyle\theta_{3}=\theta_{234}-\theta_{2}-\theta_{3} (7)
θ5=tan1(iycos1ixsin1)sin234iysin1+ixcos1\displaystyle\theta_{5}=\tan^{-1}{\frac{(i_{y}cos_{1}-i_{x}sin_{1})sin_{234}}{i_{y}sin_{1}+i_{x}cos_{1}}} (8)

Trong phương trình 45 mm, nn được định nghĩa theo phương trình (9), (10):

m=pxcos1+pysin1+dEsin234\displaystyle m=p_{x}cos_{1}+p_{y}sin_{1}+d_{E}sin_{234} (9)
n=pzddEcos234\displaystyle n=p_{z}d-d_{E}cos_{234} (10)

II-B Thiết kế khung điều khiển phần mềm dựa trên ROS

Trong bài báo này, chúng tôi sử dụng Moveit là công cụ chính cho các tác vụ lập kế hoạch chuyển động, động học, động học ngược của robot. Về cơ bản, khung điều khiển bao gồm ba bước chính: Thiết lập mô hình URDF (Unified Robot Description Format) nhằm trực quan hóa robot trong môi trường mô phỏng, các bước được mô tả chi tiết qua Hình 5. Tiếp theo, chúng tôi triển khai bộ điều khiển cấp thấp của robot trong ROS thông qua Arduino, cuối cùng chúng tôi tạo các bộ cấu hình trong Moveit trình bày trong Hình 6. Hình 7 trực quan hóa tập mô hình URDF thông qua RViz.

Refer to caption
Figure 5: Các bước tạo mô hình URDF từ mô hình Solidwork

Chúng tôi tạo node /GUI nhằm tiếp nhận câu lệnh, hiển thị thông tin robot. Sau đó câu lệnh tới node move_group thực hiện các tác vụ như lập kế hoạch chuyển động, thiết lập các khớp. Node /joint_trajectory hiển thị giao diện hành động với độ điều khiển quỹ đạo. Sau đó, thông tin về quỹ đạo được cấp tới node /joint_simulator điều khiển mô phỏng robot tay máy đôi. Cuối cùng, giá trị động cơ (góc khớp) được truyền xuống bộ điều khiển cấp thấp qua cầu nối node joint_driver giữa ros_controllerrobot_controller.

Refer to caption
Figure 6: Mô hình mối quan hệ giữa các node trong ROS
Refer to caption
Figure 7: Trực quan hóa mô hình robot trong ROS

II-C Trí tuệ nhân tạo đa thể thức

II-C1 Nhận dạng đối tượng

Hình 8 trình bày chi tiết các bước nhận dạng đối tượng đồng thời xác định tọa độ trong không gian làm việc của robot. Thông tin từ môi trường được trích xuất thông qua máy ảnh chiều sâu realsense 455. Sau đó, dữ liệu ảnh mày RGB được sử dụng làm đầu vào của mô hình nhận dạng vật thể. Trong bài báo này, chúng tôi sử dụng mô hình Yolo (You only look once) [12] cho bài toán xác định đối tượng. Đầu ra của mô hình cung cấp chiều dài, chiều rộng và tọa độ tâm của đối tượng trong miền pixel 2D của ảnh.

Refer to caption
Figure 8: Nhận dạng đối tượng và ước tính tọa độ vật thể

Sau khi xác nhận được vật thể mong muốn, chúng tôi bổ sung thông tin độ sâu nhằm ước tính tọa độ vật thể trong môi trường thực. Đầu tiên chúng tôi tính toán tọa độ vật thể trên khung tọa độ camera theo hai bước [13]:

  • B1: Xác định tọa độ của một điểm ảnh từ một cảnh: chúng tôi sử dụng phép biến đổi hình chiếu phối cảnh được mô tả theo Hình 9. Vấn đề đặt ra là cần xác định tọa độ điểm chiếu trên mặt phẳng ảnh. Xét điểm ảnh (xi,yi)(x_{i},y_{i}) có tọa độ thực thế (Xs,Ys,Zs)(X_{s},Y_{s},Z_{s}). Theo quy tắc đồng dạng của tam giác ta có phương trình chiếu như sau:

    {xi=fXsZsyi=fYsZs\displaystyle\biggl{\{}\begin{array}[]{*{20}{c}}x_{i}=f\frac{X_{s}}{Z_{s}}\\ y_{i}=f\frac{Y_{s}}{Z_{s}}\end{array} (11)
    Refer to caption
    Figure 9: Mô hình phép biến đổi hình chiếu phối cảnh
  • B2: Chuyển đổi qua hệ tọa độ hình ảnh với tâm quang học (cx,cy)(c_{x},c_{y}) như Hình 10

    {u=fXsZs+cxv=fYsZs+cy\displaystyle\biggl{\{}\begin{array}[]{*{20}{c}}u=f\frac{X_{s}}{Z_{s}}+c_{x}\\ v=f\frac{Y_{s}}{Z_{s}}+c_{y}\end{array} (12)

    Hệ tọa độ thực (Xs,Ys)(X_{s},Y_{s}) của vật thể thu được:

    {Xs=ZsucxfYs=Zsvcyf\displaystyle\biggl{\{}\begin{array}[]{*{20}{c}}X_{s}=Z_{s}\frac{u-c_{x}}{f}\\ Y_{s}=Z_{s}\frac{v-c_{y}}{f}\end{array} (13)

    với ZsZ_{s} có thể thu được khi sử dụng máy ảnh độ sâu tương ứng với tọa độ tâm thu được.

    Refer to caption
    Figure 10: Biểu diễn hệ toạ độ hình ảnh

Tiếp theo, chúng tôi tính toán tọa độ vật thể trên hệ toạ độ của robot. Ta có hệ tọa độ (Xc,Yc,Zc)(X_{c},Y_{c},Z_{c}) của camera, hệ tọa độ (Xr,Yr,Zr)(X_{r},Y_{r},Z_{r}) của robot và ma trận 𝐏cr{}^{r}\mathbf{P}_{c} là ma trận chuyển đổi giữa hệ tọa độ camera qua hệ toạ độ robot được xác định bởi:

[XrYrZr1]\displaystyle\begin{bmatrix}X_{r}\\ Y_{r}\\ Z_{r}\\ 1\end{bmatrix} =𝐏cr[XcYcZc1]=[𝐑cr𝐓cr01×31][XcYcZc],\displaystyle={}^{r}\mathbf{P}_{c}\begin{bmatrix}X_{c}\\ Y_{c}\\ Z_{c}\\ 1\end{bmatrix}=\begin{bmatrix}{}^{r}\mathbf{R}_{c}&{}^{r}\mathbf{T}_{c}\\ 0_{1\times 3}&1\end{bmatrix}\begin{bmatrix}X_{c}\\ Y_{c}\\ Z_{c}\\ \end{bmatrix}, (14)

trong đó 𝐑cr{}^{r}\mathbf{R}_{c}𝐓cr{}^{r}\mathbf{T}_{c} lần lượt là ma trận xoay và ma trận dịch chuyển giữa hệ tọa độ camera và hệ tọa độ robot

II-C2 Nhận dạng giọng nói

Mô hình nhận dạng giọng nói được thể hiện thông qua Hình 11. Giọng nói được thu thập thông qua micro sau đó lưu trữ dạng các tập tin âm thanh. Tiếp theo, tập tin âm thanh được đi qua khối Google Speech Recognition nhằm chuyển đổi giọng nói thành văn bản. Chúng tôi thiết lập bộ từ điển nhằm đưa ra các giả thiết khả dĩ về hành vi, chức năng của robot. Sau khi có dữ liệu văn bản của khối hận dạng giọng nói và khối từ điển, chúng tôi thực hiện so khớp hai thông tin nhờ TF-IDF [14, 8] và phương trình Cosine Simalarity [15]. TF-IDF tiếp nhận văn bản sau đó dựa vào tần số xuất hiện của từ trong câu thể hiện tầm quan trong của một từ ngữ từ đó tạo ra vector đặc trưng cho mỗi câu theo công thức:

tfidf(t,d,D)=tf(t,d).idf(t,D)\displaystyle tfidf(t,d,D)=tf(t,d).idf(t,D) (15)

trong đó, tf(t,d)tf(t,d) thể hiện tần số xuất hiện của từ ww trong câu dd. idf(t,D)=logNcount(dD:td)idf(t,D)=\log\frac{N}{count(d\in D:t\in d)} thể hiện mức độ phổ biến của từ với NN số lượng câu dd trong tập thư viện DD.

Refer to caption
Figure 11: Mô hình nhận dạng giọng nói

Cuối cùng, câu lệnh được trích xuất và truyền tới robot.

III TH.C NGHI.M VÀ ĐÁNH GIÁ K´T QUẢ

Table I: Tập dữ liệu mô hình nhận dạng vật thể, giọng nói
Câu lệnh điều khiển Đối tượng Nhãn Yolo
pick up the white rectangular object [Uncaptioned image] rectangle
pick up the white cylinder object [Uncaptioned image] cylinder
pick up the box [Uncaptioned image] box
Table II: Kết quả sai số hệ thống (đơn vị: cm)
Lần đo 1 2 3 4 5 6 7 8 9 10 TB
Tay trái 1.05 1.28 1.29 1.55 1.56 1.25 0.88 1.86 0.78 1.48 1.30
Tay phải 1.07 0.88 0.96 1.36 1.68 1.24 1.87 0.88 1.5 1.4 1.28
Kết hợp Yolo 1.3 1.24 1.84 3.48 3.82 1.51 0.41 0.97 1.5 2.26 1.83

III-A Điều kiện đánh giá

Refer to caption
Figure 12: Giao diện điều khiển hệ thống

Hệ thống được thử nghiệm và đánh giá trong môi trường thực trong đó bộ tham số góc khớp bị giới hạn với gia tốc tối đa 0.1 (rad/s2rad/s^{2}) và vận tốc tối đa trong khoảng 1.73 đến 2.56 (rad/srad/s). Bộ dữ liệu cho quá trình nhận dạng vật thể bao gồm 100 ảnh kích cỡ 640x480 chứa các đối tượng được mô tả như trong Bảng I cùng với câu lệnh điều kiểu của chúng. Giao diện điều khiern hệ thống được chúng tôi thiết kế như Hình 12 bao gồm các câu lệnh điều khiển cơ bản, hiển thị câu lệnh. Sai số hệ thống được đánh giá thông qua phương pháp so sánh tọa độ thực và tọa độ tính toán, sai số là khoảng cách giữa hai điểm theo phương trình Euclid:

err=(xxr)2+(yyr)2+(zzr)2\displaystyle err=\sqrt{(x-x_{r})^{2}+(y-y_{r})^{2}+(z-z_{r})^{2}} (16)

trong đó: (x,y,z)(x,y,z) là tọa độ mong muốn, (xr,yr,zr)(x_{r},y_{r},z_{r}) là tọa độ thực tế.

III-B Kiểm tra độ chính xác của mô hình nhận dạng vật kể và giọng nói

Chúng tôi tiến hành kiểm thử mô hình nhận dạng giọng nới với ba câu lệnh được mô tả như Bảng I, trong đó mỗi câu lệnh được lặp lại 200 lần. Kết quả từ Bảng III cho thấy mô hình nhận dạng giọng nói cho kết quả tương đối chính xác (>97%>97\%). Tuy nhiên để có thể ứng dụng vào trong công nghiệp, độ chính xác đạt được cần phải ở mức cao hơn như 99%99\%.

Table III: Kết quả thử nghiệm nhận dạng giọng nói
pick up the white rectangular object pick up the white cylinder object pick up the box
0.975 0.990 0.990
Refer to caption
Figure 13: Kết quả nhận dạng vật thể

Mô hình nhận dạng vật thể bằng Yolo cho kết quả rất chính xác được thể hiện qua Hình 13. Kết quả cho thấy các chỉ số như mAP_0.5 đạt 95.71%95.71\%, mAP_0.95 đạt 78.26%78.26\%, pecision đạt 95.67%95.67\% và recall đạt 87.95%87.95\%. Bên cạnh đó, tập dữ liệu có quy mô nhỏ và các lỗi xảy ra trong quá trình gán nhãn ảnh hưởng trực tiếp tới kết quả nhận dạng.

III-C Kiểm tra độ chính xác của hệ thống

Kết quả của Bảng II cho thấy về mặt lý tưởng robot có thể di chuyển tới các ví trí trong không gian với dung sai xác định trước tuy nhiên trong thực tế có thêm sai số động cơ và sai số của phép đo nên tổng sai số của từng tay dao động trong khoảng 0.78cm0.78cm đến 1.86cm1.86cm đối với tay phải và 0.87cm0.87cm đến 1.87cm1.87cm với tay trái. Đối sai số khí gắp vât thông qua mô hình yolo, chúng tôi nhận thấy rằng sai số tọa độ tỉ lệ thuận với khoảng cách trục xx và trục zz với sai số nằm trung bình khoảng 1.83cm1.83cm.

IV K´T LU.N

Bài báo trình bày hệ thống phát triển tay máy đôi cho tác vụ tương tác người-robot dựa trên hệ điều hành ROS. Các mô hình trí tuệ nhân tạo được cung cấp nhằm giải quyết các vấn đề cơ bản từ đó tạo một bộ khung hoàn chỉnh. Kết quả thu được chứng minh tính khả thi và khả năng ứng dụng vào thực tiễn đặc biệt là trong thời điểm dịch bệnh đang diễn ra.

Tuy nhiên, hệ thống còn nhiều thiếu sót về cả phần cứng và các tác vụ tương tác. Trong tương lai, chúng tôi sẽ cải thiện hệ thống phần cứng đồng thời thêm các mô hình như nhận dạng cử chỉ, cảm xúc, … cho robot.

References

  • [1] I. El Makrini, K. Merckaert, D. Lefeber, and B. Vanderborght, “Design of a collaborative architecture for human-robot assembly tasks,” in 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2017, pp. 1624–1629.
  • [2] S. Radmard, A. J. Moon, and E. A. Croft, “Interface design and usability analysis for a robotic telepresence platform,” in 2015 24th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), 2015, pp. 511–516.
  • [3] B. M. Dinh, A. V. Dang, C. T. Nguyen, and V. X. Hoang, “Đánh giá và tối u thuật toán hector slam ´ng dụng lập bản Đồ và Định vị trên pimouse robot,” in The 24nd National Conference on Electronics, Communications and Information, 2021.
  • [4] Y. Cong, C. Jiang, H. Liu, H. Du, Y. Gan, and C. Jiang, “Research on trajectory planning method of dual-arm robot based on ros,” in 2020 Chinese Automation Congress (CAC), 2020, pp. 2616–2621.
  • [5] R. Xu, L. Qian, and X. Zhao, “Development of dual-arm mobile robot platform based on ros,” Cobot, vol. 1, p. 4, 01 2022.
  • [6] D. Sepúlveda, R. Fernández, E. Navas, P. González-de Santos, and M. Armada, “Ros framework for perception and dual-arm manipulation in unstructured environments,” in Robot 2019: Fourth Iberian Robotics Conference, M. F. Silva, J. Luís Lima, L. P. Reis, A. Sanfeliu, and D. Tardioli, Eds.   Cham: Springer International Publishing, 2020, pp. 137–147.
  • [7] I. Hameed, G. Strazdins, H. Hatlemark, I. Jakobsen, and J. Damdam, Robots That Can Mix Serious with Fun, 01 2018, pp. 595–604.
  • [8] B. M. Dinh, D. S. Tran, N. Do, M. H. Le, and V. X. Hoang, “Mai_arm: Robot tay máy thông minh sử dụng trí tuệ nhân tạo Đa thể thức,” in The 24nd National Conference on Electronics, Communications and Information, 2021.
  • [9] Y. Zhang, Z. Lu, C. Wang, C. Liu, and Y. Wang, “Voice control dual arm robot based on ros system,” in 2018 IEEE International Conference on Intelligence and Safety for Robotics (ISR), 2018, pp. 232–237.
  • [10] L. Liu, Q. Liu, Y. Song, B. Pang, X. Yuan, and Q. Xu, “A collaborative control method of dual-arm robots based on deep reinforcement learning,” Applied Sciences, vol. 11, no. 4, 2021.
  • [11] V. Iliukhin, K. Mitkovskii, D. Bizyanova, and A. Akopyan, “The modeling of inverse kinematics for 5 dof manipulator,” Procedia Engineering, vol. 176, pp. 498–505, 12 2017.
  • [12] J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, “You only look once: Unified, real-time object detection,” 2015. [Online]. Available: https://arxiv.org/abs/1506.02640
  • [13] N. Andriyanov, I. Khasanshin, D. Utkin, T. Gataullin, S. Ignar, V. Shumaev, and V. Soloviev, “Intelligent system for estimation of the spatial position of apples based on yolov3 and real sense depth camera d415,” Symmetry, vol. 14, no. 1, 2022.
  • [14] S. Qaiser and R. Ali, “Text mining: use of tf-idf to examine the relevance of words to documents,” International Journal of Computer Applications, vol. 181, no. 1, pp. 25–29, 2018.
  • [15] D. Gunawan, C. Sembiring, and M. Budiman, “The implementation of cosine similarity to calculate text relevance between two documents,” Journal of Physics: Conference Series, vol. 978, p. 012120, 03 2018.