금융보안원, ‘2025년 AI 레드팀 보고서’ 발간
금융권 인공지능(AI)이 기본적인 보안 위협에는 대응할 수 있지만 고도화된 최신 공격에는 취약하다는 경고가 나왔다.
금융보안원은 이러한 내용을 골자로 AI 보안 위협 전망과 금융권 AI 레드팀 활동 결과를 담은 ‘2025년 AI 레드팀 보고서’를 발간했다고 30일 밝혔다. AI 레드팀은 공격자 관점에
숭실대학교 AI안전성연구센터는 국내외 거대언어모델(LLM) 20종을 비교한 결과, 국내 모델의 보안성과 안전성이 해외 모델의 약 82% 수준이라고 18일 밝혔다.
이번 분석은 최근 '국내외 파운데이션 모델 보안·안전성 평가 세미나'에서 공개됐으며, 과학기술정보통신부와 정보통신기획평가원의 '정보보호핵심원천기술개발사업' 연구과제의 일환으로 수행했다.
연
유네스코 가이드라인 기반 AI 윤리헌장도 수립클라우드 및 AI 핵심 사업 성장성과 맞물려 주목
삼성SDS가 ‘인공지능(AI) 윤리’를 전사 전략으로 끌어올렸다. AI 거버넌스 담당 조직인 ‘IT 윤리팀’을 세우고, AI 위험을 식별·방지하는 기술의 연구개발에도 나섰다. 이를 통해 삼성SDS의 미래 성장동력인 ‘AI 및 클라우드’ 사업의 신뢰성을 선제적으
숭실대 AI 안전성 연구센터는 지난 9일 'AI 안전성 연구센터 세미나'를 개최하고 ㈜엔키화이트햇과의 연구협력(MOU)을 체결했다고 13일 밝혔다.
이번 세미나는 온라인과 오프라인으로 진행됐으며 총 60여 명이 참석했다. 세미나에서는 한국인공지능 법학회 최경진 회장과 숭실대 AI 안전성 연구센터 최대선 센터장의 발표가 진행됐다.
최경진 회장은 '글로
네이버클라우드가 3일 초대규모 AI ‘하이퍼클로바X(HyperCLOVA X)’의 테크니컬 리포트를 공개했다. 테크니컬 리포트는 학습 방법이나 성능 등 AI 모델의 세부 정보를 소개하는 논문이다. 오픈AI, 구글과 같은 빅테크 기업들도 자사 AI의 특징을 테크니컬 리포트를 통해 설명하고 있다.
성능 평가에서 글로벌 오픈소스 모델보다 높은 점수 기록…데이터셋