이번 주 중국 개발 포럼에서 아시아 보아오 포럼, 중관춘 포럼에 이르기까지 이 포럼은 경제와 기술에 초점을 맞췄으며, 그 중 과학 기술 수준에서 인공 지능과 휴머노이드 로봇의 개발 및 논의는 특별한 관심을 받았습니다.
1 month 0, 0 Zhongguancun Forum의 연례 회의가 공식적으로 열렸으며, 과학 기술에 중점을 둔 이 포럼은 인공 지능과 관련된 더 많은 콘텐츠를 설정했습니다. 그렇다면 인공지능의 발전 단계는 어느 단계일까요? AI는 이미 존재하는 것을 바탕으로 어떻게 계속 발전할 수 있을까요? 개발과 동시에 보안 문제를 해결하는 방법은 무엇입니까? "News 0+0"은 칭화대학교 인공지능연구소 교수 Huang Minlie와 중국정치법대학교 데이터지배연구소 교수 Zhang Linghan을 연결하여 분석과 해석을 제공했습니다.
AI의 초점은 어떻게 변화하고 있습니까?
Huang Minlie, 칭화대학교 인공지능연구소 교수: 올해의 변화에는 두 가지 주요 지점이 있다고 생각합니다.
체화 된 지능, 올해의 체화 된 지능은 실제로 생성 형 대형 모델, 가장 중요한 연구 핫스팟 및 산업 레이아웃 방향 외에도 투자 및 자금 조달의 이러한 방향은 매우 활발합니다, 체화 된 지능은 상대적으로 구체화 된 대형 모델을 통해 이루어지기 때문에 로봇이 결합되어 오늘날 우리가 보는 휴머노이드 로봇, 자율 주행 등과 같은 매우 눈에 띄는 응용 시나리오와 같은 것을 달성하는 데 사용될 수 있습니다.
또 다른 중요한 변화는 과학을 위한 AI인데, 과학을 위한 AI가 왜 그렇게 중요한가요? 과거에는 대형 모델들이 사람들과만 채팅을 할 수 있었고, 사람들이 공식 문서를 작성하는 것을 돕고, 문서를 작성하는 것만 가능했지만, AI가 혁신을 도울 수 있을까요? 새로운 물질을 발견하는 방법을 탐구하는 것과 같은 몇 가지 주요 과학적 발견을 해결하고, 의학 연구 및 생명 과학 연구와 같은 매우 중요한 기초 과학 문제를 해결합니다. 이 방향은 실제로 미래이며, AI를 실제로 사용하여 새로운 것을 창조하고, 새로운 지식을 발견하고, 과거에 인간이 탐구하지 못했던 중요한 과학적 발견을 탐구하는 방법이며, 이는 우리에게 매우 중요한 초점입니다.
올해 Zhongguancun 포럼에서도 이 두 가지 점이 매우 잘 반영되었습니다.
산업 시나리오에서 AI 애플리케이션을 개발하기 위한 핵심은 무엇입니까?
Huang Minlie, Tsinghua University 인공 지능 연구소 교수: 미래의 산업 시나리오에 인공 지능을 적용하는 것은 매우 중요한 방향이자 새로운 품질 생산성을 달성하기 위한 가장 중요한 돌파구 방향이라고 생각합니다. 산업 시나리오의 AI 애플리케이션에는 높은 신뢰성이 필요하기 때문에 세 가지 중요한 문제를 해결해야 합니다.
우리의 지능이 더 높은 수준으로 향상될 수 있는지 여부, 현재의 대형 모델은 여러 측면에서 매우 지능적이지만 산업 시나리오의 데이터는 실제 작업 흐름과 깊이 결합되어야 하며 이러한 지능의 조합은 더 높은 수준을 달성할 수 있습니다.
산업 현장에서는 신뢰성의 문제가 상대적으로 적고, 오류가 발생하면 파괴적인 영향을 미칠 수 있는 문제도 더 중요하므로 상대적으로 높은 신뢰성이 필요합니다. 신뢰성 측면에서도 현재 인공 지능 연구의 매우 중요한 방향입니다.
보안, 보안 문제는 우리가 새로운 세대의 인공 지능 기술을 많이 적용했다는 것을 의미하며, 실제로 우리 전체와 AI 간의 관계, 그리고 AI가 전체 사회의 발전에 얼마나 심오한 영향을 미칠 것인지, 사실 이것은 거버넌스 문제입니다. 보안 및 거버넌스도 앞으로 집중해야 할 중요한 문제입니다.
인공 지능 개발의 위험과 보안 문제를 처리하는 방법은 무엇입니까?
Zhang Linghan, China University of Political Science and Law, Institute of Data Rule of Law 교수: 사실, 우리는 규제 법률 및 규정을 제정할 때 AI의 위험을 충분히 고려했습니다. 지난해 19월 중국은 인공지능의 위험을 내인성 위험과 응용 위험의 두 가지 범주로 나누는 '인공지능 보안 거버넌스 프레임워크'를 공표했는데, 이는 실제로 인공지능의 기술적 위험과 남용 위험이다. 내인성 위험을 관리하기 위해 우리가 제시한 원칙은 "기술로 기술을 지배"하고 기술을 사용하여 기술을 통제하는 것입니다. R&D 및 배포 단계에서 인공 지능 기술을 완전히 평가하고, 가치를 조정하고, 지속적으로 모니터링해야 합니다. 응용 프로그램 위험 측면에서 AI의 법적 거버넌스 및 감독에 주의를 기울여야 할 뿐만 아니라 자율 주행, 스마트 의료, AI 동료 등과 같은 일부 AI 관련 산업의 법률을 충분히 공식화하고 고려하고 종합적인 계획을 충분히 수립해야 합니다.
편집자/Zhou Chao