Sử dụng trí tuệ nhân tạo trong hoạt động báo chí: Thực tiễn và các vấn đề pháp lý

NDO -

Báo Nhân Dân trân trọng giới thiệu tham luận của TS Lê Thị Hằng (Tạp chí Thông tin và Truyền thông, Bộ Thông tin và Truyền thông) gửi tới Hội thảo khoa học cấp quốc gia “Chuyển đổi số báo chí Việt Nam - Những vấn đề lý luận và thực tiễn”, do Viện Đào tạo Báo chí và Truyền thông (Trường Đại học Khoa học Xã hội và Nhân văn, Đại học Quốc gia Hà Nội) và Tạp chí Thông tin và Truyền thông (Bộ Thông tin và Truyền thông) đồng tổ chức tại Hà Nội sáng 11/6.

Quang cảnh hội thảo sáng 11/6. (Ảnh: THÀNH ĐẠT)
Quang cảnh hội thảo sáng 11/6. (Ảnh: THÀNH ĐẠT)

1. Mở đầu

Trên bình diện quốc tế, thách thức pháp lý đối với Trí tuệ nhân tạo (AI) luôn là vấn đề mà Chính phủ các quốc gia và giới học giả quan tâm, bên cạnh việc nghiên cứu phát triển và ứng dụng AI. Nhiều nước trên thế giới đã tiến hành nghiên cứu và có những bước đi đáng kể trong việc xây dựng khung pháp lý điều chỉnh các quan hệ xã hội liên quan đến AI. Tuy nhiên, vấn đề này lại chưa được quan tâm đúng mức tại Việt Nam.

Hệ thống pháp luật Việt Nam vẫn đang ở trạng thái điều chỉnh các quan hệ xã hội truyền thống liên quan đến thể nhân, pháp nhân, tổ chức không có tư cách pháp nhân. Không gian pháp lý dành cho các quan hệ pháp luật có sự tham gia của công nghệ còn hạn hẹp. Do đó, nếu các vấn đề liên quan đến AI xuất hiện thì sự lúng túng trong việc điều chỉnh các vấn đề đó cũng bắt đầu. Điều này cho thấy, chúng ta đang có những sự chậm trễ nhất định với xu hướng thế giới trong việc chuẩn bị những giải pháp, kịch bản cụ thể dành cho viễn cảnh AI phát triển nhanh tại Việt Nam trong thời gian tới.

Vì thế, bổ sung, xây dựng các quy định pháp lý điều chỉnh các vấn đề về sử dụng AI trong hoạt động báo chí là hết sức cần thiết, phù hợp với bức tranh toàn cầu cũng như nhu cầu và thực tế phát triển AI tại Việt Nam.

2. Đạo đức và tư cách pháp nhân khi sử dụng AI trong hoạt động báo chí

Trong lĩnh vực báo chí, cùng với chất lượng nội dung, vấn đề đạo đức và pháp luật cần phải được nghiên cứu để kịp thời điều chỉnh các vấn đề thực tiễn phát sinh. Đạo đức báo chí vốn đã là một chủ đề nhạy cảm - và đạo đức trong AI cũng vậy, điều này làm cho sự kết hợp của giữa AI và báo chí trở nên đặc biệt gây tranh cãi. Theo Giáo sư Seth Lewis của Đại học Oregon đề cập, nếu một bản tin tự động làm mất danh dự của một cá nhân thì khi đó ai chịu trách nhiệm? Và vụ kiện sẽ tiến hành ra sao? Một ví dụ điển hình cho những câu hỏi này đó là:

Vào tháng 8 năm 2016, Facebook đã sa thải nhóm quản lý phần “Chủ đề Thịnh hành” và thay thế họ bằng AI, với thuật toán tự động nhận dạng và tuyên truyền các “Chủ đề Thịnh hành” đến với người dùng. Sự thay đổi này đã tạo lên những làn sóng tranh cãi và gây ra những cáo buộc sai sự thật. Việc chuyển đổi hình thức quản lý này đã khiến Facebook dính phải những cáo buộc không đáng có. Một trong những cáo buộc nổi bật đó là: Vào ngày 28/8/2016, chuyên mục “Chủ đề Thịnh hành” đã đăng tải một bài tin tuyên truyền thông tin sai sự thật với tuyên bố rằng: Người dẫn chương trình của Fox News, Megyn Kelly - bị sa thải khỏi đài truyền hình vì cô đã ủng hộ ứng viên Hillary Clinton cho chức vụ Tổng thống Hoa Kỳ.

Mặc dù Facebook vẫn có nhóm biên tập để rà soát quá trình cập nhập tin tức của AI, lỗi thuật toán vẫn xảy ra. Thuật toán đã cũng cấp thông tin từ nguồn tin không chính thống, cụ thể đó là trang web endthefed.com. Với khối lượng thông tin lớn, kèm theo sự nhận định sai của thuật toán, nhóm biên tập đã hiểu nhầm đây là một tin tức có độ tin cậy cao. Từ đó, dẫn tới hàng loạt các câu hỏi về vấn đề đạo đức như: ngay cả khi đó là lỗi của thuật toán AI, Facebook có phải chịu trách nhiệm pháp lý về những gì đã xảy ra hay không? Vậy ai là người bôi nhọ danh dự của Megyn Kelly? Thuật toán hay Facebook?

Với những câu trả lời và những suy nghĩ khác nhau về vấn đề trên, ông Lewis cho rằng các nhà lập pháp chưa sẵn sàng để tìm ra cách thức để kiện các thuật toán. Sau cùng, con người vẫn sẽ phải chịu trách nhiệm bằng cách này hay cách khác. Ví dụ trên đã chứng minh được luận điểm của Patrick White, giáo sư báo chí tại Đại học Quebec ở Montrealargues, đó là: Một trong những mối nguy hiểm của AI chính là việc sai lệch thuật toán, bởi vì các thuật toán được thiết kế bởi con người, sẽ luôn có những thành kiến có thể thay đổi phân tích dữ liệu và dẫn đến hậu quả nghiêm trọng. Vì vậy, việc xác minh nội dung được tạo bởi con người trước khi xuất bản sẽ luôn là biện pháp bảo vệ chống lại các sai sót10.

3. Quy định của một số quốc gia trên thế giới về đạo đức và tư cách pháp nhân của AI

Để có thể có những giải pháp tối ưu từ những thách thức đạo đức và pháp lý mà AI đặt ra, trước hết, cần xác định được tư cách pháp lý của AI. Tuy vậy, cần hiểu rõ rằng, thuật ngữ AI được định nghĩa như một lĩnh vực, do đó việc xác định tư cách pháp lý phải được đặt trên những công nghệ về AI hoặc thực thể mang AI. Như đã phân tích, công nghệ AI có thể tồn tại trong những hệ thống dữ liệu (chương trình máy tính, chat bot, phần mềm...) mang tính vô hình và cũng có thể được mang bởi một thực thể hữu hình hay còn gọi là các tác tử thông minh như robot hay xe tự lái. Hiện tại, có hai cách tiếp cận về tư cách pháp lý của AI như sau:

Cách tiếp cận thứ nhất, AI là một đối tượng của pháp luật, một số thực thể hữu hình có gắn AI như robot có thể được xem xét có quyền như con người. Vào năm 2017, Robot Sofia đã được cấp quyền công dân tại Ả-rập Xê-út, với vai trò là một người phụ nữ.

Công bố này đã gây ra những mâu thuẫn với một số luật xác định tư cách pháp nhân tại quốc gia này. Đầu tiên, nó mâu thuẫn với tiêu chuẩn cấp quốc tịch tại Ả-rập Xê-út, đó là:

Thứ nhất, thông tin liên quan đến thủ tục đăng ký khai sinh, yêu cầu:

Sinh ra trong một gia đình truyền thống, có cha và mẹ là công dân Ả-rập Xê-út;

Sự ra đời của một pháp nhân tại Ả-rập Xê-út được công nhận khi mà cha là công dân của Ả-rập Xê-út, và mẹ không phải là công dân của quốc gia này.

Với đối tượng có mẹ là một công dân Ả-rập Xê-út, trong đó cha không phải là công dân; thì đối tượng phải có giấy phép cư trú vĩnh viễn và thông thạo tiếng Ả Rập.

Thứ hai, cần có giấy tờ liên quan đến tình trạng hôn nhân.

Cuối cùng, để hoàn thành thủ tục nhập quốc tịch cần thỏa mãn một số điều kiện như: tuổi tác; khả năng sử dụng Tiếng Ả-rập Xê-út; sống tại Ả-rập Xê-út trên 10 năm; không có tiền án, tiền sự; tuân thủ các chuẩn mực ứng xử. Ngoài ra, để được công nhận là một phụ nữ Ả-rập Xê-út, cần phải thỏa mãn các yêu cầu liên quan đến văn hóa, bao gồm: đeo khăn trùm đầu, giới hạn vị trí việc làm, giới hạn đi du lịch nước ngoài, các vấn đề hạn chế trong gia đình các quy tắc về cuộc sống và thừa kế, và một số hạn chế khác.

Ngoài Ả-rập Xê-út, Nhật Bản cũng đã có trường hợp tương tự, một trường hợp điển hình đó là bot trò chuyện Shibuya Mirai đã cung cấp giấy phép cư trú, theo một quy định đặc biệt vào năm 2017.

Tuy nhiên, hành động này đã đi ngược lại với các luật liên quan đến thủ tục cấp giấy phép cư trú tại Nhật Bản. Trong luật cung cấp quyền cư trú và quốc tịch tại Nhật Bản đã liệt kê rõ các đối tượng được xem xét đó là: Chuyên gia nước ngoài làm việc trong các công ty Nhật Bản, những người đoàn tụ gia đình, các doanh nhân và nhà đầu tư kinh doanh tại Nhật Bản, các nhà khoa học, nghệ sĩ và vận động viên đẳng cấp thế giới, người nước ngoài kết hôn với công dân Nhật Bản,…Hơn thế nữa, luật quy định để đăng ký cư chú xác nhận quốc tịch, sẽ được xem xét dựa trên hai trường hợp chính, đó là: Sinh ra và lớn lên tai Nhật Bản hay cha và mẹ mang quốc tịch Nhật Bản. Để hoàn thiện thủ tục nhập quốc tịch, người đó phải sống ở Nhật Bản trên 5 năm và có giấy tờ hợp pháp cho việc định cư tại Nhật Bản.

Tuy nhiên, số lượng quốc gia theo cách tiếp cận này rất ít. Không những thế, cho dù đã có những đặc cách về mặt pháp luật liên quan đến quyền tư pháp cá nhân của AI, việc nhận định AI là một đối tượng và các thực thể AI như robot được cấp quyền pháp nhân vẫn gây ra nhiều tranh cãi. Với một hệ thống pháp luật đã được xây dựng trước đó, với rất nhiều tiêu chí khác nhau, câu hỏi đặt ra để giải quyết cho sự tranh cãi đó là: Liệu AI có thật sự là một thực thể sống như con người đáp ứng mọi tiêu chí như một pháp nhân? Hay các thực thể AI chỉ là một sản phẩm thuộc quyền sở hữu của con người?

Từ những câu hỏi gây tranh cãi này, cách tiếp cận thứ hai đó là AI là một đối tượng riêng biệt trong pháp luật và được kiểm soát bởi những quy định đặc biệt, các thực thể mang AI không được công nhận có quyền như một con người, bản chất là một tài sản, công cụ, hay sản phẩm (pháp luật chỉ quy định AI là một đối tượng được kiểm soát đặc biệt và có những quy định dành riêng để điều chỉnh các vấn đề phát sinh liên quan đến AI). Tại một số quốc gia lớn trên thế giời đã phát triển, thêm các điều luật về các thực thể AI dựa trên góc nhìn này, đó là:

Tại Hoa Kỳ, chính phủ Hoa Kỳ xác định tình trạng pháp lý của AI là một pháp nhân như con người. Thay vào đó, chính phủ Hoa Kỳ đã tập trung vào định nghĩa pháp lý của AI. Phần 3 của Dự luật về AI đưa ra các định nghĩa khái quát về AI như sau:

- Các hệ thống nhân tạo có khả năng thực hiện các nhiệm vụ mà không cần sự hiện diện của con người (hệ thống tự trị);

- Các hệ thống suy nghĩ tương tự với bộ não con người, có thể vượt qua các bài kiểm tra và có thể xử lý các loại ngôn ngữ khác nhau. Đó là hệ thống đại diện cho kiến thức, lý luận, tự động và học tập;

- Hệ thống hoạt động để đạt được mục tiêu đặt ra thông qua nhận thức, lập kế hoạch, lý luận, học tập, giao tiếp, ra quyết định và hành động.

Các nước trong Liên minh Châu  u (EU) lại tập trung hơn về việc xác định quyền sở hữu của các thực thể AI. Một trong những ví dụ điển hình là “Đạo luật Giao thông tại Đức” đặt ra trách nhiệm quản lý phương tiện tự động hoặc bán tự động cho chủ sở hữu và một số cơ quan chức năng như Bộ Giao thông Vận tải Liên bang và Cơ sở Hạ tầng Kỹ thuật số. Ngoài ra, một cách tiếp cận toàn diện hơn đối với định nghĩa của luật hiện hành và tương lai liên quan đến robot hay các thực thể AI đã được trình bày trong nghị quyết của EU về robot13. Nghị quyết đó xác định các loại hình sử dụng AI bao gồm các vấn đề về trách nhiệm pháp lý, đạo đức và cung cấp các quy tắc ứng xử cơ bản cho các nhà phát triển, nhà điều hành và nhà sản xuất,… Nói cách khác, tại EU, thực thể AI được xác định là một sản phẩm và thuộc quyền sở hữu của một cá nhân/tổ chức nhất định. Với những khó khăn trong việc xác định tư cách pháp nhân của AI, AI/các thực thể AI đang gây ra nhiều tranh cãi trong vấn đề liên quan đến bồi thường trách nghiệm với những tác động của nó trong xã hội.

Với những tính năng của mình, AI có thể trở thành một phương tiện cho một chủ thể nào đó dùng để gây hại, hoặc AI gây hại bằng hành động của mình. Ví dụ như tội phạm mạng cũng có thể sử dụng AI để thực hiện các cuộc tấn công trên môi trường số. Với tính năng học cách phát hiện các mẫu trong hành vi, hiểu cách kết nối với mọi người thông qua các kênh xã hội khác nhau, AI sẽ là công cụ hiệu quả cho các tội phạm mạng xâm phạm các thông tin cá nhân, phát tán hoặc chuyển giao dữ liệu nhạy cảm của đối tượng bị hại.

Với sự tranh cãi và khó xác định tư cách pháp nhân của AI, pháp luật các nước trên thế giới chưa quy định một cách rõ ràng về trách nhiệm bồi thường thiệt hại liên quan đến AI. Do đó, các vấn đề bồi thường sẽ phải được giải quyết theo các quy định pháp luật hiện hành. Nếu trong trường hợp AI tự mình gây ra những thiệt hại thì vấn đề xác định chủ thể chịu trách nhiệm bồi thường lại là một vấn đề nan giải. Bời vì, thiệt hại đó không có sự tác động của của con người hay sắp xếp của con người, mà là do sự sai lệch bản năng thuật toán về công nghệ. Đứng trên phương diện logic thì lỗi này là lỗi do các thực thể AI tạo ra nên các thực thể AI cần chịu trách nghiệm.

Tuy nhiên, như đã trao đổi ở trên, việc coi các thực thể AI là một con người/có quyền pháp nhân như một con người/cá thể riêng biệt không được ứng dụng rộng rãi. Chính vì vậy, phần lớn luật pháp quốc gia và quốc tế đều đưa ra nhận định AI không thể chịu trách nhiệm cá nhân về những thiệt hại mà nó gây ra. Đa số các quốc gia căn cứ vào pháp luật hiện hành để quy trách nhiệm về một chủ thể xác định. Pháp luật châu  Âu quy định “hành vi sử dụng sản phẩm chịu trách nhiệm về những thiệt hại xảy ra”, như vậy chủ thể sử dụng AI sẽ phải chịu trách nhiệm cho những xâm phạm do AI gây ra. Pháp luật châu Âu cũng có nhiều văn bản hiện hành quy định về những vấn đề liên quan đến trách nhiệm bồi thường khi AI hoặc thực thể mang AI gây thiệt hại như luật trách nhiệm sản phẩm theo Chỉ thị 85/374/EC, theo đó nhà sản xuất phải bồi thường thiệt hại do những sản phẩm AI gây ra; trách nhiệm nghiêm ngặt của nhà sản xuất, chủ sở hữu khi robot AI gây thiệt hại được quy định trong Quy tắc luật dân sự về robot (2015/2103 (INL)).

Thêm vào đó, Điều 12 Công ước Liên hợp quốc về sử dụng thông tin điện tử trong hợp đồng quốc tế đã nêu rõ, một người (dù là thể nhân hay pháp nhân) thay mặt cho máy tính được lập trình cuối cùng phải chịu trách nhiệm cho bất kỳ thông báo nào được tạo bởi máy23. Theo cách diễn giải này thì một chủ thể khi đang sử dụng AI như một công cụ, dù có lỗi hay không thì cũng phải bồi thường thiệt hại do AI gây ra.

Có thể thấy, cách giải quyết những thiệt hại liên quan đến bồi thường về AI đang là một gánh nặng lớn với đơn vị sử dụng nó. Với những tương tác ngày càng giống một cá thể có tính chất rõ ràng, liệu những quy định trên đã giúp chúng ta yên tâm về những vấn đề do AI mang lại? Đây vẫn là câu hỏi khó trả lời đối với việc pháp triển/bổ sung luật pháp liên quan đến AI. Tuy nhiên, trong hiện tại, cách hướng về bên quản lý là cách giải quyết tối ưu nhất với những vấn đề đạo đức liên quan đến trao quyền tư cách pháp nhân đến AI.

Ngày 25/11/2021, Tổ chức Giáo dục, Khoa học và Văn hóa Liên hợp quốc (UNESCO) đã đưa ra hướng dẫn đạo đức quốc tế đầu tiên trên thế giới về AI, cấm sử dụng công nghệ này cho “mục đích chấm điểm xã hội hoặc giám sát hàng loạt”. Trong tuyên bố, UNESCO cho biết hướng dẫn này đóng vai trò như bộ “khuyến nghị” toàn cầu thay vì một thỏa thuận ràng buộc. Mặc dù những bên ủng hộ AI, chẳng hạn như Trung Quốc, coi công nghệ này là công cụ giúp chuyển đổi một loạt các ngành công nghiệp, nhưng trên thực tế các ứng dụng khác nhau của AI, từ ứng dụng di động, phương tiện truyền thông xã hội, bán lẻ trực tuyến cho đến các nền tảng chấm điểm xã hội và hệ thống giám sát, là biểu hiện rõ ràng cho những gì UNESCO mô tả là “mối quan ngại cơ bản về đạo đức” có khả năng dẫn đến “phân biệt đối xử, bất bình đẳng và phân chia kỹ thuật số”.

Tài liệu 28 trang của UNESCO, được gọi chính thức là “Khuyến nghị về đạo đức của trí tuệ nhân tạo”, cấm sử dụng AI cho “mục đích chấm điểm xã hội hoặc giám sát hàng loạt” vì “những loại công nghệ này xâm lấn và vi phạm quyền con người”.

Hướng dẫn kêu gọi “minh bạch hơn trong việc kiểm soát dữ liệu cá nhân” và “giới hạn và nhận thức lớn hơn về khả năng của AI để bắt chước đặc điểm, hành vi của con người”. UNESCO muốn đảm bảo rằng “sự thống trị của ngôn ngữ tiếng Anh trong AI không gây bất lợi cho các ngôn ngữ thiểu số, sự đa dạng và quan điểm văn hóa rộng lớn hơn”. Cơ quan Liên hợp quốc cũng cảnh báo “việc tương tác liên tục với công nghệ AI, bao gồm thông qua các thuật toán mạng xã hội, có thể tác động tiêu cực đến sức khỏe tinh thần của cả trẻ em và người lớn”.

4.Một số khuyến nghị, đề xuất áp dụng tại Việt Nam

Ở Việt Nam, chưa có một cách tiếp cận nào rõ ràng cho AI hay những thực thể mang AI. Việc này có thể là một thách thức trong quá trình vận dụng pháp luật điều chỉnh. Pháp luật Việt Nam quy định chủ thể phải là cá nhân hoặc tổ chức, do vậy sẽ là không thể nếu chúng ta xác định tư cách pháp lý của AI cũng như những thực thể mang AI là những chủ thể trong pháp luật, có quyền như một con người. Do đó, khi xây dựng quy định pháp luật để điều chỉnh các vấn đề pháp lý phát sinh liên quan đến AI, chúng ta có thể tiếp cận theo cách không cố gắng xác định tư cách pháp lý của AI, mà tập trung định nghĩa của AI và các vấn đề phát sinh. Còn đối với thực thể mang AI cần có quy định rõ đến việc xác định bản chất của những thực thể đó.

Pháp luật Việt Nam hiện chưa có quy định về trách nhiệm bồi thường thiệt hại liên quan đến AI. Nếu xem xét những thực thể mang AI là tài sản (tài sản trí tuệ và tài sản là vật hữu hình) thì theo quy định tại Khoản 3 Điều 584 Bộ luật Dân sự chủ sở hữu, người chiếm hữu phải bồi thường thiệt hại. Tuy vậy, những quy định này chỉ có thể áp dụng được trong một vài trường hợp hoặc đối với những quan hệ đơn giản, ở những quan hệ phức tạp hơn thì rất khó điều chỉnh. Ví dụ, trong trường hợp AI bị lấy cắp, sau đó AI gây thiệt hại, hay xác định trách nhiệm ra sao khi chủ sở hữu và nhà sản xuất cùng có lỗi khi AI gây thiệt hại. Tất cả những trường hợp trên đều chưa có quy định cụ thể để áp dụng giải quyết khi phát sinh quan hệ bồi thường thiệt hại liên quan đến AI.

Do đó, trong quá trình hội nhập quốc tế, việc bổ sung các phạm trù, quy định… liên quan đến đạo đức và tư cách pháp nhân của AI trong hoạt động báo chí truyền thông là hết sức cần thiết, như:

(1) Bổ sung khái niệm về AI/các thực thể AI trong báo chí. Điều đó sẽ giúp nhận định rõ ràng hơn về phạm vị và đối tượng ảnh hưởng của AI tới báo chí;

(2) Cần có quy định rõ ràng về quyền sở hữu chủ thể AI của các cơ quan báo chí;

(3) Cần có những yêu cầu liên quan đến giấy tờ chứng minh quyền sự hữu chủ thể AI của các đơn vị báo chí;

(4) Bổ sung những quy định liên quan đến việc chịu trách nhiệm thiệt hại xuất phát từ hành động đánh cắp chủ thể AI từ các cơ quan báo chí sở hữu chúng. Với những quy định này, luật có thể nêu rõ về việc chứng minh bằng chứng và điều tra đối tượng trộm cắp để bảo vệ đơn vị sở hữu khỏi những tính huống bị hãm hại bởi các cá nhân/đơn vị khác.

5. Kết luận 

Có thể thấy, sự phát triển mạnh mẽ của công nghệ trí tuệ nhân tạo chính là động lực thúc đẩy cơ quan quản lý báo chí, các lập pháp nghiên cứu, thiết lập khung pháp lý điều chỉnh các vấn đề phát sinh mà các công nghệ này mang lại cho lĩnh vực báo chí ở thời điểm hiện tại cũng như các thách thức về mặt pháp lý trong tương lai.

Dưới tác động cuộc cách mạng công nghiệp 4.0, công tác quản lý báo chí - truyền thông ở nước ta đang gặp nhiều thách thức, phải đối mặt với các vấn đề quản lý thông tin trên một không gian “mở” nhưng “ảo”, những vấn đề về an ninh truyền thông, hacker, tin tặc, các loại tội phạm thông tin đặc biệt nguy hiểm... Do vậy, công tác quản lý báo chí - truyền thông của Việt Nam cần đổi mới quan điểm, tư duy và cách thức quản lý từ truyền thống sang hiện đại; cần học hỏi kinh nghiệm các nước về quản lý báo chí - truyền thông; xác định rõ thực trạng phát triển báo chí - truyền thông và quản lý báo chí - truyền thông, từ đó đề ra giải pháp cấp bách và lâu dài nhằm phát triển ngành báo chí - truyền thông, nâng cao hiệu quả quản lý báo chí - truyền thông trong thời đại số.

Xét tổng thể, trong hệ thống pháp luật của nước ta hiện nay, cụ thể là luật Báo chí và các văn bản quy phạm pháp luật trong lĩnh vực báo chí, không gian pháp lý điều chỉnh các quan hệ pháp luật có sự tham gia của công nghệ chưa thể xử lý được các vấn đề phát sinh liên quan đến AI. Do đó, việc chuẩn bị những giải pháp, kịch bản cụ thể trước viễn cảnh AI phát triển mạnh tại Việt Nam là hết sức cần thiết.