AI 모델인 라마(Llama
페이지 정보
작성자 test 댓글 0건 조회 82회 작성일 25-01-28 08:16본문
회사 측은딥시크-V3개발에 들인 비용이 557만6천달러(약 78억8천만원)에 불과하다는 것인데, 이는 메타가 최신 AI 모델인 라마(Llama) 3 모델을 엔비디아의 고가 칩 'H100'으로 훈련한 비용 대비 10분의 1 수준이라는 것이다.
CNN 방송은 량원펑을 챗GPT 개발사인 오픈AI의 창업자이자 최고경영자(CEO) 샘.
‘V3’ 등딥시크가 내놓은 AI 모델이 엔비디아의 최신 칩보다 성능이 떨어지고 저렴한 칩을 사용했는데도 빅테크의 최신 모델과 비슷하거나 오히려 능가하는 성능을 내고 있는 것이다.
딥시크의 ‘저렴한’ AI 모델 개발 방식이 확산한다면 엔비디아가 그동안 비싼 최신 AI 칩을 앞세워 올렸던 막대한.
이어 내놓은딥시크-V3과 딥시크-R1은 이 회사의 이름을 세계에 알렸다.
딥시크는 V3와 R1이 모두 미국의 주요 AI 모델보다 성능이 더 낫거나 비슷한 수준이라고 자신했다.
미국 수학경시대회인 AIME 2024 벤치마크 테스트에서 R1은 79.
8%를 얻어 오픈AI 'o1'의 79.
2%보다 앞섰다고 딥시크는 밝혔다.
딥시크가 만든V3모델 기반 모바일 앱 '딥시크'는 애플 앱스토어 차트에서 급등하며 월요일 기준 챗GPT를 넘어섰으며, 현재까지 약 200만 건 다운로드됐다.
엔비디아는 2년간 A100과 H100 등 자체 개발한 최신 GPU를 통해 전 세계 AI 열풍을 주도해 왔다.
그러나딥시크가 저사양 GPU로 신형 AI 모델을.
최근 뉴욕타임스(NYT)는 딥시크가딥시크-V3개발에 투입한 비용은 557만6000달러(약 78억8000만원)에 그쳤다고 전했다.
이는 메타가 최신 AI 모델인 라마(Llama)3 모델에 'H100'으로 훈련한 비용의 10분의 1 수준이다.
오픈AI의 연구자인 노암 브라운은 "딥시크는 상대적으로 적은 컴퓨팅 만으로 강력한.
딥시크는 최근 개발한 대규모 언어 모델(LLM) ‘V3’가 저비용·저사양 환경에서도 오픈AI의 ‘GPT-4o’를 능가하는 성능을 선보이며 주목받았다.
특히딥시크의 AI 모델은 누구나 자유롭게 사용하고 개선할 수 있는 개방형 오픈소스라는 점에서 향후 글로벌 AI 개발 생태계 주도권이 중국에게 넘어가는.
딥시크는 기술보고서에V3의 성능을 오픈AI의 가장 강력한 모델인 GPT-4o, 페이스북 모회사 메타플랫폼(이하 메타)의 AI 모델인 라마 3.
1, 앤스로픽의 AI 모델 클로드 3.
5 소네트와 비교한 결과 22개 평가 테스트 가운데 13개 부문에서 다른 경쟁 모델보다 가장 뛰어났다고 설명했습니다.
'V3' 등딥시크가 내놓은 AI 모델이 엔비디아의 최신 칩보다 성능이 떨어지고 저렴한 칩을 사용했는데도 빅테크의 최신 모델과 비슷하거나 오히려 능가하는 성능을 내고 있는 것이다.
딥시크의 '저렴한' AI 모델 개발 방식이 확산한다면 엔비디아가 그동안 비싼 최신 AI 칩을 앞세워 올렸던 막대한 매출과.
딥시크는 기술보고서에V3의 성능을 오픈AI의 가장 강력한 모델인 GPT-4o, 페이스북 모회사 메타플랫폼(이하 메타)의 AI 모델인 라마 3.
1, 앤스로픽의 AI 모델 클로드 3.
V3는 22개 평가 테스트 가운데 13개 부문에서 다른 경쟁 모델보다 가장 뛰어났다고딥시크는.
그러나딥시크가 개발한 AI 모델 'V3'에 투입된 비용은 557만 6천 달러, 우리 돈 약 78억 8천만 원에 불과한 것으로 알려졌습니다.
이는 AI 개발 비용에 수백억 원에서, 많게는 수십조 원을 쏟아붓는 빅테크에 비해 크게 낮은 수준입니다.
딥시크모델 훈련에는 엔비디아의 H800 칩이 사용됐지만, 이는 미.
댓글목록
등록된 댓글이 없습니다.