Diễn bọn quốc tế về các vấn đề đạo đức nghề nghiệp của trí tuệ nhân tạo (AI) ra mắt tại Slovenia từ ngày 5 mang lại 6/2 say mê sự để ý của phần đông lãnh đạo và chăm gia. Sự cải cách và phát triển như vũ bão của ai đã thôi thúc nhiều quốc gia, tổ chức ưu tiên đầu tư chi tiêu vào technology này, nhưng lại những nguy cơ về đạo đức nghề nghiệp và bình yên cũng ngày càng biểu lộ rõ.

Bạn đang xem: Phát triển ai có đạo đức và trách nhiệm


Các công ty hoạch định chính sách ở khắp chỗ cũng tráng lệ và trang nghiêm và quyết liệt hơn vào thúc đẩy làm chủ AI. Bắt đầu đây, những nước thành viên hợp lại thành châu Âu (EU) đã thông qua quy định toàn diện thứ nhất nhằm thống trị AI.
AI bao gồm tiềm năng to bự giúp trở nên tân tiến kinh tế, thúc đẩy tiến bộ khoa học và đem về những tiện ích cho xóm hội, song cũng đi kèm theo nhiều khủng hoảng rủi ro tiềm tàng còn nếu như không được sử dụng, cải tiến và phát triển một cách gồm đạo đức và tất cả trách nhiệm. Ngày càng lộ diện nhiều chú ý về nguy hại từ technology này.
Năm 2023, Trung tâm giang sơn về trẻ nhỏ mất tích cùng bị tách lột (NCMEC) của Mỹ đã nhận được 4.700 báo cáo về văn bản trực tuyến vày AI tạo thành liên quan mang lại lạm dụng tình dục trẻ em em.
Cơ quan tình báo của cơ quan chỉ đạo của chính phủ Anh cảnh báo, sự bùng phát của các quy mô AI bắt đầu gần như chắc chắn sẽ làm tăng số lượng và nấc độ tác động ảnh hưởng mà những cuộc tấn công mạng gây ra trong 2 năm tới. Năm 2024 là 1 trong năm có khá nhiều cuộc thai cử như bầu cử trên Mỹ, Nga, Ấn Độ, phái mạnh Phi... Giới chuyên viên nhận định, nguy hại sai lệch hiệu quả bầu cử vày AI gây ra là trong số những rủi ro lớn số 1 trong năm 2024.
Công nghệ tiên tiến và phát triển này ví dụ đang khơi mồng những cuộc chiến phức tạp mới giữa lực lượng bảo vệ an ninh mạng với tội phạm mạng, khi các đối tượng người tiêu dùng tội phạm mạng dày dạn tay nghề đang lợi dụng AI để thực hiện hành vi xấu, như cải cách và phát triển phần mềm ô nhiễm và độc hại và tiến công lừa đảo. Với việc trợ góp của AI, các hoạt động phạm tội như nhại lại giọng nói, mạo danh, làm giả tòa tháp nghệ thuật... Rất có thể dễ dàng cùng tinh vi hơn.
Việc xây dựng chiến lược quản lý, phát triển AI là bước đi quan trọng nhằm chuẩn bị cho các thế hệ sau có thể "sống thông thường an toàn” với công nghệ này. Tuy nhiên, ngay cả khi nhận ra sự ủng hộ từ phần đông giới lãnh đạo, chuyên viên và doanh nghiệp, thì việc thống trị AI vẫn luôn là điều rất khó dàng. Các nhà lập pháp hiện vẫn có quan điểm khác hoàn toàn trong một vài vấn đề liên quan đến đảm bảo quyền riêng rẽ tư cá thể và bạn dạng quyền. Việc cân đối giữa cửa hàng đổi mới, trí tuệ sáng tạo và đáp ứng nhu cầu các tiêu chuẩn đạo đức về phạt triển ai cũng là một thách thức, đòi hỏi sự hợp tác quốc tế, chia sẻ kinh nghiệm giữa những nước.
*

*

*

*

Sau một năm tăng tốc đầu tư mở rộng công ty máy, các nhà sản xuất Mỹ rất có thể sẽ giảm chi tiêu vốn trong năm 2024 do lo ngại lãi suất cao và yêu cầu tiêu dùng giảm.
Sáng 30/1, Quân team Hàn Quốc cho thấy thêm Triều Tiên đang phóng tiếp một vài tên lửa hành trình dài từ bờ biển khơi phía Tây của nước này, chỉ nhì ngày sau khoản thời gian phóng thử tên lửa hành trình từ bờ hải dương phía Đông.
Ngày 29/1, công ty chế tạo vệ tinh Nara Space Inc. Của xứ hàn Quốc cho biết vệ tinh nano của nước này Observer-1A đã thực hiện thành công thiên chức quan liền kề Trái Đất với bài toán chụp ảnh các thành phố lớn trên nuốm giới, trong đó tất cả hai thành phố Busan (Hàn Quốc) và Dubai (Các Tiểu quốc gia Arab Thống tuyệt nhất - UAE).
Báo Rodong Sinmun - ban ngành ngôn luận của Đảng Lao cồn Triều Tiên - ngày 29/1 đưa tin nhà chỉ đạo Kim Jong-un vẫn thị cạnh bên vụ phóng thử thương hiệu lửa hành trình dài từ tàu ngầm cùng dự án chế tạo tàu ngầm phân tử nhân của Bình Nhưỡng.
Tối 27/1, Đại sứ quán vn tại Singapore đã tổ chức Tết xã hội đón Xuân cạnh bên Thìn với sự tham gia của phần đông bà con Việt kiều, cùng tập thể gia đình cán bộ, nhân viên các cơ quan đại diện và đại diện thay mặt người Việt đang sinh sống, học tập và làm việc ở nước sở tại.
Ngày 27/1 thành phố Saint - Petersburg (tên cũ là Leningrad) của LB Nga long trọng lưu niệm 80 năm thoát ra khỏi cuộc phong tỏa kéo dãn dài gần 3 năm trong Chiến tranh nhân loại lần vật dụng hai 1941 - 1945.
Xem những tin đã đưa ngày:
Tin trong: chuyên mục này số đông chuyên mục
Chọn12345678910111213141516171819202122232425262728293031Chọn
Tháng Một mon Hai
Tháng Ba
Tháng TưTháng Năm
Tháng Sáu
Tháng Bảy
Tháng Tám
Tháng Chín
Tháng Mười
Tháng Mười Một
Day.selected
Index=3;document.Reverse.f
Month.selected
Index=9;document.Reverse.f
Year.selected
Index=19;
Bản quyền ở trong báo Hoà Bình . Địa chỉ số 47 - Nguyễn Huệ - phường Phương Lâm - TP Hoà Bình - thức giấc Hoà Bình.
Samurai Vietnam
*

Atlassian
Sonatype
Blogs
Về chúng tôi
*
Tiếng Việt

Khi khoa học viễn tưởng trở thành khoa học thật sự, việc triệu tập vào khía cạnh đạo đức sẽ bảo đảm an toàn trí tuệ nhân tạo (Artificial Intelligence – AI) mang lại lợi ích cho toàn nhân loại, chứ không cần phải đặc quyền của một đội thiểu số.

Người ta bảo rằng tin đưa thì lan truyền nhanh hơn vội vàng 6 lần đối với tin tức thật. Các thuật toán được tích hợp trong số phần mềm media xã hội với mục tiêu thu hút sự để ý của bọn họ đã cung cấp cho ta những tin tức kích hoạt các phiên bản năng cơ phiên bản trong trọng điểm lý phức hợp của bé người. Đây là một số trong những thực tế ví dụ nhất được phơi bày trong bộ phim truyền hình tài liệu The Social Dilemma (Tạm dịch: vậy tiến thoái lưỡng nan của buôn bản hội) trên Netflix. Quyến rũ sự chăm chú của bọn họ là quá trình robot được lập trình để làm. Và bọn chúng đang làm việc đó khôn cùng tốt. Tristan Harris, tín đồ sáng lập Trung tâm công nghệ Nhân đạo (The Center for Humane Technology) phân chia sẻ: “Chừng nào các công ty media xã hội còn kiếm được lợi nhuận trường đoản cú sự phẫn nộ, nhầm lẫn, trầm cảm của người tiêu dùng và khiến họ nghiện, những an sinh và nền dân nhà của bọn họ sẽ tiếp tục gặp rủi ro.”

Nguồn cung cấp tin tức cuộn vô hạn chỉ là một trong những phần nhỏ trong quả đât trí tuệ nhân tạo. Trí tuệ nhân tạo và thiết bị học còn ảnh hưởng đến cách chúng ta mua sắm, giao dịch, giao tiếp, thậm chí còn cả những đưa ra quyết định về câu hỏi ứng viên nào sẽ tiến hành gọi phỏng vấn và hồ sơ của ai có khả năng sẽ bị vào thùng rác.

Dù vào tương lai, robot rất có thể thay thế công việc của họ hoặc không, nhưng hiện tại chúng vẫn đóng ngày càng nhiều vai trò trong cuộc sống. Việc phần mềm (và cách bọn họ xây dựng nó) mang lại lợi ích hay gây hại mang đến ta là vấn đề đặc biệt mà tất cả mọi người, không riêng gì các công ty phát triển, cần được hiểu. Và chính là lúc trí tuệ tự tạo có đạo đức nghề nghiệp xuất hiện.

Trí tuệ tự tạo có đạo đức nghề nghiệp là gì?

Có một số mắt nhìn khác nhau khi nói về vấn đề đạo đức nghề nghiệp của trí óc nhân tạo. Tất cả những sự việc triết học phức hợp và những dự đoán của chủ nghĩa sau này như singularity (điểm kỳ quái công nghệ), hay đa số ý tưởng y như khoa học tập viễn tưởng về điều gì sẽ xẩy ra khi một hệ thống trí tuệ nhân tạo trở phải có ý thức và rất có thể tự dạy mang lại mình bất kể điều gì nó muốn, không hề chỉ gói gọn trong phạm vi những gì nó được lập trình nhằm học. Và tiếp theo sau đó là hành vi đạo đức của con fan khi họ thi công và tạo nên những cỗ máy thông minh.

Đó là những vụ việc mới được cân nhắc vừa mới đây và có một số trong những người đã ra đời các tổ chức với thiên chức giúp họ nhận thức giỏi hơn về chúng. Một trong những đó là Ethical AI, với cùng 1 điểm dữ liệu (data point) như sau:

Gartner dự đoán rằng trong 2 năm tới, 85% các dự án trí tuệ nhân tạo sẽ chuyển ra công dụng sai lầm.

Con số này sẽ khiến bọn họ phải ngồi thẳng sống lưng và chú ý. Điều đáng nói là nhiều khi nguyên nhân gây lỗi không hẳn là vì chưng mã nguồn, mà đó là thành con kiến vô thức. Một lấy ví dụ là ứng dụng phát hiện đợt đau tim được cải tiến và phát triển vào năm 2019. Nó ghi thừa nhận một giải pháp nhầm lẫn các triệu chứng giống như cơn hoảng sợ ở phái nữ (vốn là triệu hội chứng những lần đau ở nam giới giới) là 1 trong cơn đau tim. Trí tuệ tự tạo vô tình ăn hại vì nó khuếch đại rất nhiều thành kiến sẽ tồn tại từ rất lâu – trong trường hòa hợp này là quan tiền niệm cho rằng phái nàng đa cảm vượt mức.

Xem thêm: Trẻ Ăn Gì Để Cao Hơn? 10 Thực Phẩm Giúp Trẻ Phát Triển Chiều Cao Tối Ưu Cho Trẻ

Một ví dụ không giống là thuật toán trí tuệ tự tạo nhận dạng khuôn mặt cho kết quả đúng mực hơn khi tiến hành trên những khuôn mặt người da trắng so với những người da màu. Ô tô tự lái cũng vậy. Nó có xu hướng phát hiện tốt hơn người đi dạo có nước domain authority sáng, nhờ kia tránh va vào họ xuất sắc hơn. Một vài khối hệ thống như vậy đã tạo nên nhiều tác dụng sai lầm.

Đây là tại sao bắt buộc phải xây cất trí tuệ tự tạo với những phương pháp đạo đức. Nhiệm vụ thuộc về bọn họ là biến hóa những bên lãnh đạo gồm đạo đức ở cung cấp cơ sở, thay vày chỉ nhờ vào chính lấp hoặc hầu như ông khủng công nghệ. Tất nhiên, họ cũng cần phải thao tác của mình. Song, so với các doanh nghiệp công nghệ, có một sự thật phũ phàng là không ít người thiếu động lực tài chính để tác động ảnh hưởng đến sự thay đổi thực sự.

Các phương pháp của trí tuệ nhân tạo có đạo đức cùng tầm quan trọng của nó so với các bên phát triển

Tiến sĩ Catriona Wallace, bạn sáng lập cùng CEO của Ethical AI Advisory với đồng thời là bạn sáng lập và giám đốc của Flamingo AI cho rằng ngày nay, cơ quan chính phủ và những cơ quan quản lý khác đã đi được sau thời đại ít nhất 5 năm một trong những kiến thức, gọi biết về việc trí tuệ nhân tạo có khả năng gì cùng làm nỗ lực nào để cai quản nó. Ethical AI Advisory chỉ rõ: “Việc áp dụng phương pháp tiếp cận bao gồm đạo đức để trở nên tân tiến và sử dụng trí tuệ nhân tạo đảm bảo an toàn các tổ chức, nhà lãnh đạo và nhà phát triển nhận thức được những nguy cơ tiềm ẩn tiềm ẩn của trí thông minh nhân tạo, và bằng phương pháp tích hợp những nguyên tắc đạo đức nghề nghiệp vào thiết kế, trở nên tân tiến và tiến hành trí tuệ nhân tạo, họ rất có thể tìm phương pháp phòng né mọi mối đe dọa tiềm ẩn.”

Tiến sĩ Wallace phân tích và lý giải rằng có nhiều thứ không giống nhau mà con người coi trọng, nhưng rốt cuộc toàn bộ chúng đều đem lại những điều cơ bản: không khiến hại, ưu tiên sức mạnh và an toàn. Trang web Ethical ai đã đưa ra 8 lý lẽ và lý giải đáng chăm chú về trí tuệ nhân tạo có đạo đức:

Phúc lợi của bé người, làng mạc hội cùng môi trườngTrong xuyên suốt vòng đời, các khối hệ thống trí tuệ tự tạo cần với lại ích lợi cho cá nhân, xã hội với môi trường.Lấy con bạn làm trung trọng điểm giá trịTrong suốt vòng đời, các hệ thống trí tuệ tự tạo phải tôn trọng quyền nhỏ người, sự đa dạng và quyền tự chủ của các cá nhân.Sự công bằngTrong suốt vòng đời, các hệ thống trí tuệ tự tạo phải bao gồm tính diện tích lớn và dễ dàng tiếp cận, không được liên quan hoặc dẫn đến những phân biệt đối xử, sự không vô tư giữa những cá nhân, xã hội hoặc đội người.Bảo vệ quyền riêng bốn và bảo mậtTrong xuyên suốt vòng đời, các hệ thống trí tuệ nhân tạo phải tôn trọng và bảo trì các quyền riêng rẽ tư, bảo vệ dữ liệu, cũng như bảo vệ tính bảo mật của dữ liệu.Độ tin tưởng và an toànTrong suốt vòng đời, các hệ thống trí tuệ nhân tạo phải chuyển động một cách an toàn và tin cậy theo đúng mục đích của chúng.Tính rõ ràng và khả năng giải thíchCần bao gồm sự sáng tỏ và trách nhiệm tiết lộ cho mọi người biết bao giờ họ đang bị tác động đáng kể vị một khối hệ thống trí tuệ nhân tạo và khi nào hệ thống trí tuệ nhân tạo đang cửa hàng với họ.Khả năng cạnh tranhKhi một hệ thống trí tuệ nhân tạo ảnh hưởng đáng nói đến một cá nhân, cùng đồng, nhóm hoặc môi trường, cần có một quy trình kịp thời để được cho phép mọi người thử thách việc sử dụng hoặc đầu ra của hệ thống trí tuệ nhân tạo.Trách nhiệm giải trìnhNhững người chịu trách nhiệm về những giai đoạn khác nhau cho vòng đời của hệ thống trí tuệ nhân tạo phải được xác định và phụ trách về hiệu quả của hệ thống, đồng thời tính toán các buổi giao lưu của hệ thống.

Các câu hỏi về đạo đức nghề nghiệp cũng mở rộng đến dữ liệu cá thể và giải pháp nó được sử dụng trong số thuật toán trí tuệ tự tạo khi chúng ta tương tác với ứng dụng. Họ có đề nghị nhận thức rằng ta đang tác động với trí tuệ nhân tạo không? Và giành được phép không đồng ý hay không?

“Sản phẩm đầu tien mà công ty tôi gửi ra thị phần được bán trong những dịch vụ tài chính”, ts Wallace ghi nhớ lại. “Một một trong những khách hàng của cửa hàng chúng tôi không muốn quý khách hàng của họ hiểu được họ đang liên can với robot. Họ có nhu cầu khách hàng nghĩ đó là một con người. Shop chúng tôi đã nói với chúng ta rằng điều đó là phi đạo đức. Tôi có niềm tin trẻ trung và tràn trề sức khỏe rằng khách hàng hàng nên biết liệu họ gồm đang thanh toán giao dịch với robot tuyệt không, và liệu dữ liệu mà robot thu tập được dành được chuyển thành tập dữ liệu sẽ được sử dụng để huấn luyện thuật toán không. Họ bắt buộc nêu rõ những vấn đề đó trên trang web của mình.”

Máy tính chỉ làm hầu hết gì bọn chúng được lập trình nhằm làm. Cũng chính vì trí tuệ nhân tạo được đào tạo dựa trên phần đông hành vi hiện tại có, chúng rất có thể phóng đại bí quyết thành con kiến về giới tính cùng chủng tộc. Tiến sĩ Wallace chỉ ra rằng “Trí tuệ nhân tạo đánh giá hồ sơ của Amazon là lấy ví dụ như về một trí tuệ tự tạo đã thực hiện dữ liệu lịch sử có thành kiến.” chương trình đã được giảng dạy dựa trên một tập tài liệu với không ít hồ sơ của nam giới, nên dẫn đến kết luận rằng phái nam là người phù hợp hơn. Vì vậy, đa số hồ sơ của nữ giới giới tự động hóa bị hạ cấp.

Nói giải pháp khác, ngay cả Amazon – trong số những công ty công nghệ hàng đầu của thế giới – cũng đang đề nghị vật lộn để triển khai đúng.

Trí tuệ nhân tạo hoàn toàn có thể ngày càng làm tốt hơn trong bài toán cung cấp cho chính mình những gì các bạn thích, tuy vậy nó ko biết lý do bạn lại yêu thích nó. Đó là phân tích định lượng đơn thuần ở lever N cùng những đánh giá về cực hiếm không tác động đến thời gian thực thi. Cơ hội duy nhất nhằm thêm giá trị vào phương trình chính là khi lựa chọn tập dữ liệu huấn luyện. Các kỹ sư càng cẩn trọng khi chắt lọc tập dữ liệu đào tạo và huấn luyện sẽ càng có cơ hội tuyên chiến đối đầu và cạnh tranh khi hệ thống trí tuệ nhân tạo họ sinh sản ra chuyển động công bởi và bình đẳng. Giả dụ không, nó sẽ chỉ khiến cho những thành loài kiến hiện tất cả cố thủ hơn.

Các kỹ sư trí tuệ nhân tạo nghĩ gì về “robot xấu”?

Hãy lưu ý trường đúng theo của Atlassian: Họ là 1 trong những công ty công nghệ và sử dụng trí tuệ tự tạo trong phần mềm của mình.

Ở cường độ cơ bản, ứng dụng của họ được thiết kế để giúp hồ hết người làm việc năng suất và tác dụng hơn. Học tập máy tất cả thể nâng cấp điều đó. Mang sử các bạn sắp share một trang Confluence với đồng nghiệp. Thuật toán của Atlassian đã theo dõi những người bạn thường xuyên tương tác tuyệt nhất trong Confluence cùng dề xuất những người dựa trên tập tài liệu đó khi chúng ta nhập chữ cái đầu tiên trong tên của họ. Chế độ học trang bị này được hotline là Smarts, hỗ trợ hàng triệu thông báo, lời khuyên và lời nhắc nhở theo từ thời điểm cách đó mỗi ngày.

Mặc dù mọi ví dụ này rất có thể đơn giản nhưng chúng lại mang đến cho nhóm phát triển một điều gì đấy để giám sát và đo lường và quan sát, cung cấp quá trình xây dựng các chức năng cải thiện hơn. Shihab Hamid với Timothy Clipsham, nhị nhà công nghệ cấp cao tham gia trở nên tân tiến Smarts cho thấy họ nhận thức được kĩ năng sai lệch trong tài liệu và hiệu quả nói tầm thường của công cụ. Vì đó, họ luôn luôn tìm bí quyết đề phòng phần đa hậu quả không ước ao muốn.

Hamid minh họa một kịch phiên bản giả định không để ý đến thành kiến rất có thể phát sinh vào một hệ thống như Jira. “Có thể bạn luôn luôn giao phó những sự việc có mức độ cực kỳ nghiêm trọng cao cho phần đông kỹ sư thời thượng nhất. Cùng trên tổng thể dữ liệu, phần đa kỹ sư cao cấp đó đa phần là phái mạnh giới. Điều đó sẽ dẫn mang đến một sự thiên vị độc nhất vô nhị định.” Sau đó, khi hệ thống gặp gỡ phải một nhóm kỹ sư thời thượng cân bằng giới hơn, lúc đầu nó hoàn toàn có thể tụt hậu vào việc đề xuất giao phó công việc quan trọng cho nữ giới trong đội đó.

Hiện tại, việc áp dụng trí tuệ tự tạo của Atlassian không còn nằm trong những quyết định tuyển dụng và cho vay. Vậy điều gì khiến những kỹ sư như Hamid cùng Clipsham thao thức hằng đêm? Clipsham phân chia sẻ: “Theo ý kiến nhận của tôi, trí tuệ tự tạo là dự đoán về những gì sắp xảy ra trong tương lai, với học máy là một trong kỹ thuật hoàn toàn có thể giúp bạn dự đoán điều gì vẫn xảy ra.”

Làm cố kỉnh nào để chúng ta chấp nhấn cái giỏi và vứt bỏ cái xấu?

Theo tiến sĩ Wallace, trí tuệ nhân tạo phải mang lại ba tiện ích cơ bản:

Làm cho những thứ nhanh hơn, to hơn và phải chăng hơn
Chính xác hơn khối óc con người khi so với và giới thiệu quyết định
Đáng tin yêu hơn nhỏ người, về xác suất lỗi cùng thời gian hoạt động (robot chẳng bao giờ xin nghỉ phép do bị ốm)

Tuy nhiên, như chúng ta đã thấy trong các ví dụ nói bên trên và nhiều trường phù hợp khác, trí tuệ nhân tạo cũng có thể phá vỡ gần như thứ nhanh hơn với trên phần lớn quy mô, lever lớn hơn, mang tính sống còn theo như đúng nghĩa đen. Nó ko thể lưu ý đến các cực hiếm hay đông đảo yếu tố định tính khác trong lúc đưa ra quyết định. Và tuy vậy trí tuệ nhân tạo thường tất cả độ đúng mực cao hơn, mà lại nó có thể kém hơn các về kĩ năng phân biệt.

Nếu bước thứ nhất trong vượt trình biến hóa là nhận thức, thì nhiệm vụ chung của họ là phải giáo dục về chủ đề này càng các càng tốt. Họ sử dụng đồ vật tính, sử dụng các phương tiện media xã hội. Chúng ta phải đọc được chúng là gì, với đang sử dụng chúng ta như cụ nào.

Trí tuệ nhân tạo ở bao phủ ta và về cơ bản, nó đã biến đổi thế giới theo khá nhiều hướng tích cực. Mặc dù nhiên, nó cũng có chức năng trở thành tác hại lớn với thế giới. Trí tuệ nhân tạo bắt chước trí tối ưu của con người và ở những dạng tiên tiến nhất, nó rất có thể tự học. Ngày càng có tương đối nhiều sự thừa nhận rằng bọn họ cần có nhiều đại diện của thiếu nữ và tín đồ da màu rộng trong bí quyết nhóm Trí tuệ tự tạo và Robot. Các nhóm chuyên nghiệp hóa như black In Computing với Algorithmic Justice League đang nâng cấp nhận thức về ảnh hưởng tác động mà nghành nghề do bạn da white và phái mạnh thống trị áp đảo này rất có thể (và đang) gây nên với cộng đồng người da màu. Bên cạnh đó, những tổ chức triển khai như đen Girls Code với Code2040 đang cố gắng nỗ lực để thu hút đông đảo kỹ sư từ rất nhiều nhóm người ít đại diện.

Máy móc, và hầu hết thứ sáng dạ đang có mặt tại khắp hầu như nơi. Chúng ta hoàn toàn hoàn toàn có thể thực hiện tại những đánh giá và thẩm định của riêng mình, gia hạn cảnh giác và thông thường sống độc lập với robot.