전체 뉴스
-
"미래 韓日관계 주인공은 기업…일본 제대로 알아야죠"
국내 e커머스 대표 주자인 쿠팡과 배달의민족은 그들이 거둔 성공방정식을 바탕으로 일본에 진출했다가 실패의 쓴맛을 봤다. 쿠팡은 2021년 도쿄 일부 지역에서 퀵커머스를 선보였지만 성과를 내지 못했고, 배민 역시 2014년과 2020년 두 차례 모두 1년도 채 안 돼 철수했다. 1억2000만 명 인구를 자랑하는 데다 지리적으로 가깝다는 점 때문에 일본은 국내 사업자에게 매력적인 시장으로 꼽히지만, 새로운 브랜드와 소비 트렌드에 쉽게 마음을 열지 않는 ...
한국경제 | 2025.07.14 18:16 | 박종필/임형택
이미지
동영상
-
동영상 보기
2분기 어닝 좋고, 6월 CPI 괜찮을 텐데…에버코어 "곧 조정" [김현석의 월스트리트나우]
한국경제 | 2025.07.12 08:02
-
동영상 보기
"8월 1일 연장 없다" 고조된 트럼프 위협에도 믿지 않는 월가 [김현석의 월스트리트나우]
한국경제 | 2025.07.09 07:22
-
동영상 보기
"자체 AI 포기" 애플 급등에 S&P 또 신기록 [김현석의 월스트리트나우]
한국경제 | 2025.07.01 07:46
사전
- B200 [NVIDIA B200] 경제용어사전
-
엔비디아(NVIDIA)의 블랙웰(Blackwell) 아키텍처 기반 고성능 GPU로, 대규모 언어 모델(LLM)과 생성형 AI의 추론 및 학습에 최적화된 병렬 연산 장치. 2080억 개의 트랜지스터와 최대 192GB의 HBM3e 메모리를 탑재하여 이전 세대 대비 연산 성능과 에너지 효율을 획기적으로 향상시켰다. B200은 2024년 3월 NVIDIA GTC에서 발표된 차세대 AI GPU로, 홉퍼(Hopper) 아키텍처 기반의 H100을 계승한 제품이다. 블랙웰...
- H200 [NVIDIA H200 Tensor Core GPU] 경제용어사전
-
엔비디아가 개발한 차세대 고성능 GPU로, 생성형 AI 및 대규모 언어 모델(LLM) 연산에 특화된 병렬 처리 장치. HBM3e 메모리를 최초로 탑재한 GPU로, 기존 H100 대비 추론 속도와 메모리 대역폭이 대폭 향상되었다. H200은 2024년 기준 엔비디아의 플래그십 GPU로, 초거대 AI 모델과 고성능 컴퓨팅(HPC) 환경에 최적화된 구조를 갖추고 있다. 업계 최초로 고속 메모리 규격인 HBM3e를 탑재하여 대역폭과 용량 모두에서 기존 H100을 ...
- HBM4 [High Bandwidth Memory version 4] 경제용어사전
-
... 전송률과 성능을 제공하는 차세대 메모리 기술이다. HBM4는 JEDEC에서 2024년 7월 최종 확정한 HBM의 6세대 표준 메모리로, 핀당 최대 6.4Gbps의 데이터 전송 속도를 제공하며 인터페이스 폭이 이전 세대인 HBM3E 대비 두 배로 늘어나 전체 데이터 전송 대역폭이 크게 향상된 것이 특징이다. HBM4는 12층에서 최대 16층의 D램 칩을 적층할 수 있으며, 층당 24Gb 및 32Gb의 용량을 지원해 최대 64GB 이상의 메모리 용량을 제공할 ...