현세대 칩셋 B200블랙웰에 HBM3e 192GB 들어가고
올해 하반기 R100루빈에는 HBM4 288GB 들어가고..
27년 루빈 울트라는 HBM4E 1TB 들어가고 이런식이네요
발전속도도 워낙 빠르고
해가 갈수록 메모리를 점점 많이 붙임 ㅋㅋ
메모리에서 병목이 생겼고 그래서 속도와 용량이 큰 애들이 필요해졌고 (그러면서 웨이퍼 엄청 먹음)
어쩌면 학습 이후에도 개인화 하기 위해선 생각보다 메모리가 계속 필요할지도 모르겠어요.
오히려 HBM4E부터는 공정이 어려워져서 캐파가 더 딸릴수도요ㅋㅋ
아마 개별 기기에서 HBM을 다 쓰진 못하겠지만 각 기기마다 따로 메모리가 필요하겠죠.
로봇에도 다 들어가야 하고...
주린이 갠적으로 국장에서 롱을 본다면
삼전 닉스
Ai가 얼른 돈을 벌어야 할텐데 😢
미국이 부디 포기 하지 않기를
그리고 삼전 닉스가 기술 격차를 내주길!
우리나라의 메모리를 사용하지 않을 수 없게 중국과의 기술 격차를 계속해서 벌려나가기를 기대해 봅니다
근데 진짜 ai 돈벌수 있는거 맞는지 생각이드는데요 천문학적인 돈 들여서 맨날 칩 바꿔줘야 하잖슴;;
근데 지금 데이터센터 칩셋으로 돌리는 ai랑
몇년후 칩셋으로 돌리는 ai랑은 완전히 다를수도요 ㅋㅋ
지금 ai서비스들 유료 구독제가 월 20불이 평균인것 같은데 30불로 50%인상 한다고 예를 들면 사람들이 안쓸까요? 지금도 전 ai없이 못살것 같아 가격을 올려도 어쩔수없이 구독해야할것 같은데 나중에 성능이 더 좋아진다면 가격을 더 올려도 구독할수밖에 없을 것 같네요
1테라 와 ㅋㅋㅋㅋㅋㅋㅋㅋㅋ
이제 피지컬 AI 확대되면 더쓸꺼같네요
pc, 노트북은 몇 년동안 더 못 사려나
메모리에서 병목이 생겼고 그래서 속도와 용량이 큰 애들이 필요해졌고 (그러면서 웨이퍼 엄청 먹음)
어쩌면 학습 이후에도 개인화 하기 위해선 생각보다 메모리가 계속 필요할지도 모르겠어요.