ai 활용 전략 태스크 포스
디지털 경제위원회
Keidanren(일본 비즈니스 페더레이션)
1. 일반 포인트
인공 지능에 대한 제안 (AI) 법#1최근 유럽위원회가 발표 한 것은 환경 및 사회적 문제를 해결하는 방법으로서 신뢰할 수있는 AI의 개발 및 구현을 장려하는 것을 목표로합니다. 이에서는 Keidanren의 신뢰할 수있는 품질 AI 생태계와 동일한 일반적인 목표를 공유합니다.
현재 단계에서는 금지 및 위험이 높은 AI 및 기타 용어의 정의와 관련하여 일부 모호성과 해석의 여지가 남아 있으며, 이는 유럽 및 새로운 AI 회사의 투자에 대한 식욕을 방해 할 위험이 있으며, 이는 혁신 및 국가 안보에 부정적인 영향을 미칠 수 있습니다. 법이 법으로 통과되기 전에 지침 및 기타 조항과 함께 조건을 명확히하고 설명을 추가해야합니다.
또한 AI 분야에서 기술 혁신의 빠른 속도와 사회적 구현 속도가 급격히 증가함에 따라 최신 조건을 정기적으로 고려하지 않고 토론을 진행하면 혼란이 발생할 수 있습니다. 규정의 적용 가능성과 내용의 구체적인 사양을 결정할 때 EAIB (European Atificial Intelligence Board) 및 국제 표준화 기관 (ISO/IEC JTC1 SC42)을 포함한 포럼의 규정에 의해 영향을받는 EU 외부의 산업을 대표하는 대화에 적절한 프로세스가 확립되어야합니다.
동시에, 규정이 도입 된 후에도 긴밀한 대화를 통해 지속적이고 유연한 방식으로 규정 내용을 검토하기 위해 투명한 프레임 워크를 설정해야합니다. 새로운 법률 및 규정을 도입 할 때, 최첨단 기술의 사용 및 구현에서 발생하는 사회의 혜택을 극대화하기 위해 이러한 제한은 필요한 최소값으로 유지되어야합니다.
AI 제공 업체에 대한 엄격한 규정의 부과는 신뢰할 수있는 AI 생태계의 형성을 방해 할 가능성이 있습니까? AI 제공 업체에 대한 모든 책임을 모두 배치하기보다는 AI의 적절한 사용을 보장하기 위해, 우리는 규정이 전체 AI 생태계에 걸쳐 노력의 필요성을 분명히 할 것이며, 그 단계는 사용자 가이 끝을 위해 노력하도록 장려하기를 희망합니다.
2. 개별 포인트
제 2 조 범위
(p.39에서 발췌)
(의견)
- 5947_6245
제 3 조 정의
(p.40에서 발췌)
(의견)
- 공급자가 적절한 보안 조치를 구현하기위한 조치를 취했다고 가정하면 사용자 또는 시스템의 악성 공격의 경우 면제가 있어야합니다.
(p.40에서 발췌)
(의견)
- “안전 구성 요소”의 정의는 각 기술 분야에서 제공되는 명확하고 구체적인 예를 만들어야합니다. 예를 들어, 이러한 조항이 소방 감지기, 베이비 모니터 및 보안 시스템과 같은 AI 카메라 홈 모니터링 시스템에 어느 정도 적용 할 것인지 명확하게해야합니다.
- 장치가 "안전 구성 요소"를 구성하는지 여부를 결정할 책임이있는 사람에 대한 설명이 있어야합니다. 제공자 가이 결정에 대한 책임이있는 경우, 제공자가 어려운 경우에 대한 조언을 위해 접근 할 수있는 전문 기관의 설계를 포함하여 필요한 정보 및 기타 지원을 제공하기위한 조치를 취해야합니다.
(p.42에서 발췌)
(의견)
- 사용자의 정의뿐만 아니라“거리에서”와“사용자에 대한 사전 지식”이라는 용어의 기준에 대한 설명이 있어야합니다.
- 얼굴 또는 물리적 특성을 일시적으로 감지하고 범주를 감지하고 개인을 식별하지 않는 시스템 (예 : 개인에 초점을 맞추지 않고 매장 내에서 전반적인 고객 흐름을 확인하는 AI 시스템, 개인 회사의 마케팅 목적으로 사용하는 AI 시스템”은“원격 생체 인식 시스템”으로 간주되지 않으며 AI.
제 5 조 다음 인공 지능 관행은 금지되어야한다
고위험 AI 시스템에 대한 제 6 조 분류 규칙
(전체 텍스트)
(의견)
- 금지 및 고위험 AI에 대한 극도로 광범위한 정의를 사용하는 위험 기반 접근법은 EU 내에서 혁신을 억제 할 위험이 있습니다. 이에 따르면, 적용 가능성의 범위는보다 제한적으로 이루어져야하며, 규정의 범위는 위험을 측정하고 평가하는 방법과 함께 명확 해졌다. 규정의 적용 가능성은 개별 사용 사례 및 관련 위험 수준에 따라 결정될 수 있습니다.
- 금지 된 AI의 한 범주는 잠재적 인 효과를 생성하는 데 사용되는 AI입니다. 정의는 잠재 기법을 의도적으로 사용하는 AI로 제한되어야합니다. 시청각 내용, 게임 및 마케팅을위한 상업 메시징과 같이 의도하지 않게 잠재적 인 효과가 생성 될 수있는 AI 시스템은 규정에 따라 다루어서는 안됩니다.
- AI의 금지 된 예 중 하나는 법 집행 목적으로 "실시간"원격 생체 인식 식별 시스템을 사용하는 것입니다. 법 집행 기관이 자체 구내 내에서 그러한 시스템을 사용하는 시스템을 사용하는 경우 또는 AI 시스템이 의심스러운 활동의 징후를 감지 한 후 민간 회사가 법 집행 기관에 보고서를 보내는 경우가 포함되어 있는지 여부는 명확해야합니다. "공개적으로 접근 가능한 공간"이라는 용어의 범위는 개별 사용 사례와 관련된 위험을 고려하여 특정 예를 통해 설명해야합니다.
- 고위험 AI 이해 관계자에 대한 책임의 비용 효율성을 고려해야합니다. 예를 들어, 2 장 (위험 관리 시스템, 데이터 거버넌스 및 문서 및 기록 유지 포함), 3 장 (품질 관리 시스템 포함) 및 5 장 (SWD)에 표시된 바와 같이 이해 당사자에게 큰 영향을 미칠 수 있습니다. 따라서 향후이 섹션에 대한 자세한 토론이 필요합니다.
고위험 AI 시스템에 대한 제 6 조 분류 규칙
(p.45에서 발췌)
(a) AI 시스템은 제품의 안전성 구성 요소로 사용되거나 자체가 부록 II;
(b) 안전성 구성 요소가 AI 시스템 또는 AI 시스템 자체가 제품으로서의 제품 자체 인 제품은 3 분기 적합성 평가를 받아야합니다.
(의견)
- "안전성 구성 요소"의 유지 보수 및 유지를 지원하는 진단 AI에서 AI의 출력은 강제적 인 방식으로 사용되지 않지만 AI에서 생성 한 출력 정보를 사용하여 사람이 결정합니다. 따라서 AI가 언급 한 위험을 줄일 수 있어야합니다. 결과적으로 분류 규칙 (a) 및 (b)는 전체 또는 부분적으로 쉬워야합니다.
제 7 조 부록 III 개정
(p.45에서 발췌)
2. (h) 기존 노조 법률이 제공하는 정도 :
(ii) 이러한 위험을 예방하거나 실질적으로 최소화하기위한 효과적인 조치.
(의견)
- 제 7 (2) (h) 조는위원회가 부록 III에서 목록을 업데이트하기위한 위임 된 행위를 고려할 때 기존 EU 법률의 범위를 고려할 것이라고 명시하고 있습니다. 이 경우 실제 상황과 일치하지 않는 초과 규정을 도입하지 않도록 업계 담당자의 광범위한 의견을 캔버스 할 수있는 기회를 제공해야합니다.
- 의료 기기에 대한 규정과 같은 기존 규정 및 시스템에 따라 충분한 제 3 자 인증 시스템이 이미 제자리에있는 분야에서 초과 규정의 추가를 피해야합니다.
제 9 조 위험 관리 시스템
(pp.46-47에서 발췌)
(a) 각 고위험 AI 시스템과 관련된 알려진 및 예측 가능한 위험의 식별 및 분석;
(b) 고위험 AI 시스템이 의도 된 목적에 따라, 합리적으로 예측 가능한 미스 즈의 조건에 따라 사용될 때 발생할 수있는 위험의 추정 및 평가; (텍스트 생략)
(의견)
- 이 섹션은 알려진 및 예측 가능한 위험에 대한 분석 및 평가를 말합니다.이 용어의 특정 범위와 필요한 조치는 구체적인 예와 함께 명확하게 설명해야합니다.
- AI 제공 업체가 AI의 Missuse 또는 악의적 인 사용을 방지하기 위해 예방 적 경고를 발행하는 경우, AI 모델이 시장에 출시 된 후에 AI 모델이 변경 될 수있는 가능성을 염두에두고, AI 사용자는 제공자의 예측 경고가 다루는 범위 내에서 악의적 인 사용 또는 Missuse로 인한 문제에 대해 책임을 져야합니다.
(p.47에서 발췌)
(a) 적절한 설계 및 개발을 통해 가능한 한 위험의 제거 또는 감소; (텍스트 생략)
(c) 제 13 조에 따라 적절한 정보의 제공, 특히이 기사의 2 항, 지점 (b)에 언급 된 위험과 관련하여, 적절한 경우 사용자에게 교육.
(의견)
- 고위험 AI의 적절한 사용 및 위험 분석 및 평가와 관련된 정보를 제공하기 위해 정보 제공 업체가 사용자를 유지하고 공유 해야하는 정보를 명확하게해야합니다.
- “적절한 설계 및 개발을 통해 가능한 한 위험의 제거 또는 감소”에 대한 요구 사항을 명확히해야하며, 위험 트레이드 오프를 고려하는 지침이 제공되어야합니다.
제 10 조 데이터 및 데이터 거버넌스
(전체 텍스트)
(의견)
- GDPR과 일치하는 가이드 라인은 원격 생체 인식 식별 및 GDPR의 가명화 및 암호화 요구 사항이 적용될 수있는 고위험 AI와 관련하여 가능한 빨리 제공되어야합니다.
- 인프라 기술의 사용을 고려하는 것이 바람직 할 것입니다#2개별 국가 및 지역의 데이터 보호법을 엄격히 준수하면서 국경을 넘어 데이터를 원활하게 분석하고 데이터를 전송할 수 있도록 글로벌 데이터가없는 흐름의 경우
(p.48에서 발췌)
(d) 특히 데이터가 측정 및 표현 될 것으로 예상되는 정보와 관련하여 관련 가정의 공식; (텍스트 생략)
3. 교육, 검증 및 테스트 데이터 세트는 오류가없고 완료되며 관련이 있고 대표적이어야합니다. (텍스트 생략)
(의견)
- 설명은“가정 공식”이라는 용어의 의도 된 의미와“오류가없고 완료”라는 용어에 대해 설명해야합니다. 의무는 현실적이고 검증 가능해야합니다.
(p.48에서 발췌)
(의견)
- 지리적 요소를 데이터 세트에 대한 요구 사항으로 고려하여 전 세계적으로 균일 한 데이터로부터 배우기가 어려워지고, 개별 특성과 요소를 평가하는 행위가 편견을 창출 할 위험이 있기 때문에
제 11 조 기술 문서
(p.49에서 발췌)
(의견)
- 이 섹션은 회사에“국가 관할 당국과 기관에 AI 시스템의 규정 준수를 해당 요구 사항으로 평가하는 데 필요한 모든 정보를 제공해야합니다.” 그러나 자신감을 유지하는 관점에서,이 시점에 대한 철저한 토론은 업계 담당자를 포함한 다중 이해 관계자와 함께 진행되어야합니다.
제 12 조 기록 보관
(전체 텍스트)
(의견)
- 계약서를 작성할 때 어떤 법률과 규정을 고려해야하는지 설명하고 계약서에서 어떤 책임 부서가 결정되어야하는지 설명해야합니다. 여기에는 관련 기존 법률과 일치하는 계약 프로세스 검증이 포함되어야합니다.
(p.49에서 발췌)
1토토 바카라 사이트 활용 전략 태스크 포스
(의견)
- “실질적인 수정”의 정의를 명확히해야합니다.
- 로깅 요구 사항은 사전에 예상되고 검증 될 수있는 범위로 제한되어야합니다.
- 제공자가 로그 데이터를 유지하고 시장에 배치 된 후 데이터를 기반으로 모니터링을 수행하도록 요구할 때 개인 정보 및 비즈니스 신뢰를 보호하는 관점에서 제공자가 절대적으로 필요한 것보다 더 많은 데이터를 저장하도록 요구하지 않는 것이 좋습니다.
제 13 조 사용자에게 정보의 투명성 및 제공
(p.50에서 발췌)
(의견)
- 투명성을 보장하고 사용자에게 정보를 제공 해야하는 요구 사항과 관련하여 가이드 라인은 XAI 여부를 포함한 실용적이고 구체적인 예를 제공해야합니다.#3가정합니다.
(p.50에서 발췌)
1(p.39에서 발췌)
(ii) 고위험 AI 시스템이 테스트되고 검증되었으며 예상 할 수있는 예상되는 모든 수준의 정확성, 견고성 및 사이버 보안에 영향을 줄 수있는 모든 알려진 예측 상황에 대해 제 15 조에 언급 된 정확도, 견고성 및 사이버 보안 수준.
(iii) 의도 된 목적에 따라 또는 합리적으로 예측 가능한 Missuse의 조건 하에서 고위험 AI 시스템의 사용과 관련하여 알려진 또는 예측 가능한 상황은 건강 및 안전 또는 기본 권리에 위험을 초래할 수 있습니다.
(의견)
- 적용 할 수있는 외부 요인을 포함한 모든 요소를 나열하기가 어렵 기 때문에“제한”이 제공자가 고려한 범위 내에있는 한계를 언급한다는 것을 분명히해야합니다.
- 예견 할 수있는 범위는 회사마다 다를 것이기 때문에“예상 될 수 있으며, 알려질 수 있고 예측 가능한 상황”및“알려진, 예측 가능한 상황”은 제공자에게 제공자가 예견 한 범위 내에서 사용자에게 제공하도록 요구하도록 수정되어야합니다.
제 14 조인 감독
(p.51에서 발췌)
(의견)
- 각 분야의 특정 감독 요구 사항을 고려할 때, 다음 세 가지 점을 고려하여 회사에 실용적인지 확인하는 단계를 수행해야합니다. (1) 인간과 AI의 감독의 상대적인 장점과 단점을 고려하여 필요한 인간 참여 수준에 적절한 고려가 필요하다. (2) 인간의 참여 수준이 낮더라도 독립적 인 안전 구조를 통해 AI를 포함하여 시스템의 설계 단계에 위험을 제거하기위한 단계가 통합 된 경우이 요구 사항은 생략되거나 완화되어야합니다. (3)이 요구 사항은 AI가 편견이 없거나 인간 운영자의 작업 검증에 비해 정확한 편견이 없음을 입증 한 경우 생략되거나 완화되어야합니다.
(p.51에서 발췌)
(b) 고위험 AI 시스템 ( '자동화 바이어스')에 의해 생성 된 출력에 대해 자동으로 의존하거나 지나치게 충돌하는 가능한 경향을 알고 있습니다.
(의견)
- “자동화 바이어스”의 가능한 경향에 대한 인식을 유지해야 할 의무와 관련하여 요구 사항의 내용에 대한 명확한 설명이 제시되어야합니다.
제 15 조 정확도, 견고성 및 사이버 보안
(pp.51-52에서 발췌)
(의견)
- “적절한 레벨”이라는 문구에 의해 의도 된 범위는 불분명합니다. 기업이 이러한 요소를 예측할 수있는 능력은 다양 할 것이므로 회사가 예측할 수있는 범위 내에서만 적용되도록 수정되어야합니다.
(p.52에서 발췌)
(의견)
- AI 시스템에서“완화 조치”를 구현하기위한이 요구 사항에 응답하는 것은 계약 당사자로서 공급망 전반에 걸쳐 광범위한 회사와 계약을 체결함으로써 가능하며,이 시점에서 추가 멀티 이해 관계자 토론이 필요합니다.
고위험 AI 시스템 제공 업체의 제 16 조의 의무
(p.52에서 발췌)
1. (a) 고위험 AI 시스템 이이 제목의 2 장에 명시된 요구 사항을 준수하는지 확인하십시오.
(의견)
- 제공자는 위험 검증에 대한 일정 수준의 실사를 충족시키는 조건에 대한이 요구 사항에서 면제를 얻을 수 있어야합니다. 예를 들어, 사용자가 공급자가 제공하는 제품 또는 서비스를 AI를 금지하는 것으로 간주되는 사용 방법을 허용하기 위해 공급자가 공급자가 참여하지 않고 사용자가 수행하는 경우 책임에서 공개해야합니다.
- in clause (34)는“AI 시스템은 도로 트래픽 관리 및 운영 및 물, 가스, 난방 및 전기의 공급에 안전 구성 요소로 사용되도록 의도되어 있습니다. 그러한 조치가 마련된 경우, 고위험 AI에 대한 의무를 부과 할 때 고려해야 할 요소로 포함되어야합니다.
제 19 조 적합성 평가
(p.54에서 발췌)
(의견)
- 적합성 평가가 EU 외부의 회사의 시장 참여에 대한 장벽이되지 않도록하기 위해, BLOC 외부의 회사가 인공 지능법 및 관련 규정에 대한 당국으로부터 조언을받을 수 있도록 최대한 빨리 프레임 워크를 마련해야합니다.
제 24 조 제품 제조업체의 의무
(p.55에서 발췌)
(의견)
- GDPR 및 기타 기존 법률 및 규정의 내용에 비추어 혁신과 규제의 균형을 고려하여 사용자와 제공자/제조업체 간의 책임 부서를 고려해야합니다.
고위험 AI 시스템 사용자의 제 29 조의 의무
(p.58에서 발췌)
(의견)
- 제공자가 악의적 인 사용에 대한 모든 책임을 맡기가 어렵 기 때문에 규정에는 의도 된 용도를 제외하고 시스템을 사용하는 데 명확하게 명시된 금지가 포함되어야합니다.
기사 43 적합성 평가
(p.65에서 발췌)
(의견)
- AI 시스템은 소프트웨어 업데이트 및 학습을 통해 민첩한 방식으로 향상되기 때문에 정기적 인 적합성 평가를 수행 해야하는 요구 사항은 평가를 수행하는 실체에 과도한 화상을 입힐 것이므로 피해야합니다.
- 제 3 조에서, 새로운 적합성 평가가 필요한 조건으로 인용 된“실질적인 수정”이라는 용어는 더 명확하게 정의되어야한다.
제 52 조 AI 시스템에 대한 투명도 의무
(p.69에서 발췌)
(의견)
- “자연인과 상호 작용하기위한 AI 시스템의 범위와 요구 사항을 명확히해야합니다.
(p.69에서 발췌)
(의견)
- 이 섹션에는 컨텐츠가 인위적으로 생성되거나 조작되었음을 공개하기 위해 이미지, 오디오 또는 비디오 컨텐츠를 생성하거나 조작하는 AI 시스템이 필요하지만이 공개를 수행 할 방법에 대한 설명이 있어야합니다. 마찬가지로 CGI (컴퓨터 생성 이미지) 이이 조항에 의해 다루어 지려면 공개 방법을 설명해야합니다.
제 57 조 보드 구조
(p.72에서 발췌)
(의견)
- 산업 대표 및 AI 전문가를 포함한 다중 이해 관계자는 유럽 인공 지능위원회에서위원회 구성원으로 지속적으로 참여해야하며 토론 및 심의에 참여해야합니다. 또한,위원회위원회의 구성과 규모는 기술의 개발과 진행 상황에 따라 지속적으로 검토되어야합니다.
독립형 고위험 AI 시스템에 대한 제 60 조 EU 데이터베이스
(p.74에서 발췌)
(의견)
- 공개 공개의 목적은“시스템이 고위험 AI를 구성하는지에 대한 결정을 내릴 수있는 제공자와 다른 사람들을 지원하기위한 목적으로 제한되어야합니다. 데이터베이스 및 예제 수집은 고위험 AI 및 그렇지 않은 사례를 나타내도록 심화 된 사례를 작성해야하며, 이는 규정의 적용 가능성에 대한 결정의 투명성을 보장하는 데 사용해야합니다. 또한, 주어진 시스템이나 응용 프로그램이 고위험 AI를 구성하는 것으로 간주되는지에 대한 제공자의 쿼리에 대한 응답으로 결정을 내리기 위해 프레임 워크를 마련해야하며, 이러한 결정의 결과는 데이터베이스에 정기적으로 추가되어 공개적으로 이용되어야합니다.
고위험 AI 시스템에 대한 제공 업체 및 시장 우편 모니터링 계획에 의한 제 61 조 포스트 마켓 모니터링
(pp.74-75에서 발췌)
(의견)
- 모니터링 계획의 템플릿을 기반으로 마켓 모니터링을 수행 할 때, 제공자가 사용자와의 계약을 통해 로그 데이터를 얻을 수있는 객실이 남아 있어야합니다.
제 64 조 데이터 및 문서 액세스
(p.77에서 발췌)
2. 타이틀 III, 2 장에 명시된 요구 사항으로 고위험 AI 시스템의 적합성을 평가 해야하는 경우, 합리적인 요청에 따라 시장 감시 당국은 AI 시스템의 소스 코드에 대한 액세스 권한이 부여됩니다.
(의견)
- 공급자의 경우 소스 코드는 회사로서의 경쟁력의 원천 인 중요한 자원이며, 경우에 따라 제공자는 계약상의 이유 또는 보안 이유에 대해 소스 코드를 공개하지 못할 수 있습니다. 또한 데이터가 당국에 공개 될 가능성에 대한 사용자 우려가 AI의 도입을 방해 할 것이므로 당국의 데이터에 대한 액세스를 피해야합니다. 투자가 필요한 의심이 발생하는 경우, 첫 번째 사례에서 설명을 제공 할 책임이있는 것과 같이 소스 코드 공개에 의존하지 않고 상황을 해결하는 적절한 방법을 고려해야합니다.
- 일본 -EU EPA 제 73 조는 일본과 EU 간의 소스 코드에 대한 액세스 요구를 분명히 금지 하며이 기사와의 일관성을 명확하게해야합니다.
제 69 조 행동 강령
(p.80에서 발췌)
(의견)
- 적절한 행동 강령을 작성하는 회사에 인센티브를 수여하는 데 고려해야합니다.
제 71 조의 처벌
(p.82에서 발췌)
(의견)
- 처벌의 범위가 너무 넓고 벌금의 규모가 너무 커지면 유럽 시장에서 회사의 활동을 극도로 제한 할 위험이 있습니다. 그러므로 범죄의 본질과 내용, 결과적으로 얻은 혜택의 정도, 악의적 인 의도의 존재 또는 기타의 의도를 고려하여 적절한 처벌을 마련해야합니다.
- 이 법에 근거한 입법에 관한 당국이 보관 한 자료는 회사가 로그와 유사한 자료를 유지하는 기간보다 충분히 더 긴 기간을 유지해야합니다. 이러한 자료는 소송 기간이 연장되는 경우 증거로 중요한 역할을 할 수 있기 때문입니다.
제 73 조 대표단 행사
(전체 텍스트)
(p.45에서 발췌)
(의견)
- 사업에 미치는 영향을 고려할 때,위원회가 부속서에서 목록 업데이트를 고려할 때, 그것은 업계 대표자와 AI 전문가를 포함한 다중 이해 당사자들의 의견을 듣고 신중하고 신중하게 결정을 내려야합니다.
제 84 조 평가 및 검토
(p.87에서 발췌)
(의견)
- 평가 및 개정을 수행 할 때위원회는 업계 담당자 및 AI 전문가를 포함한 다중 이해 관계자와의 토론을 바탕으로 국제 모범 사례를 고려해야합니다.
Annex III 제 6 (2) 조에 언급 된 고위험 AI 시스템
(전체 텍스트)
(의견)
- “고위험 AI”및“안전 구성 요소”의 정의를 명확히해야합니다.
- 시스템은 인권 침해의 위험이 충분히 낮은 고위험 AI로 계산되어서는 안됩니다. 예를 들어 생체 인식 및 범주의 경우, 속성 식별을 통해 차별의 위험이 없음을 확인한 경우 시스템을 고위험 AI로 계산해서는 안됩니다.
Annex IV 제 11 조 (1)에 언급 된 기술 문서
(p.6에서 발췌)
(a) 제 3자가 제공 한 미리 훈련 된 시스템 또는 도구에 대한 관련성, 이들이 제공, 통합 또는 수정 된 방법을 포함하여 AI 시스템 개발을 위해 수행 된 방법과 단계;
(의견)
- 개발에 사용 된 일부 방법과 단계가 기밀 일 수 있으므로이 모든 정보를 공개하기가 어려울 수 있습니다. 이 섹션은 회사 비밀의 기밀성과 관련된 컨텐츠의 비공개를 공개 할 수 있도록 수정되어야합니다.
(p.6에서 발췌)
(의견)
- “일반 논리”는 명확하게 정의되어야합니다.
- AI 시스템에 대한 자세한 설명에는 "트레이드 오프에 대한 결정"이 포함되어야하지만 실제로 고려되는 트레이드 오프 목록 만 요구하도록 명확히해야합니다.
- 사용자와의 토론에서 결정된 범위를 초과하는 최적화 된 시스템 및 트레이드 오프에 대한 검증 및 설정에 관한 고려 사항을 나열해야합니다.
- 인공 지능에 대한 조화 된 규칙 (인공 지능법)을 제시하고 특정 노조 입법법 (2021 년 4 월 21 일에 출판)을 수정하는 유럽 의회 및 협의회 규제 제안
- GDPR 및 기타 데이터 보호법에 의해 정의 된 고도로 기밀 및 민감한 데이터의 마스킹과 같은 데이터 전송에 필요한 처리를 수행하는 데이터 수집 사이트에서 프로그램을 자동으로 구성하고 실행하는 플랫폼 기술은 데이터 분석 사이트로 자동 전송합니다.
- Xai (설명 가능한 인공 지능)는 AI를 말합니다. 여기서 예측 또는 추정 결과로 이어지는 프로세스는 인간이 설명 할 수 있습니다.