Một sản phẩm của BEACON MEDIA
Chuyên mục
Media
Báo cáo đặc biệt
Một sản phẩm của BEACON MEDIA
Khám phá nhiều hơn với tài khoản
Đăng nhập để lưu trữ và dễ dàng truy cập những bài viết bạn yêu thích trên Bloomberg Businessweek Việt Nam.
BBWV - Cơn sốt AI đang khiến giá chip, bộ nhớ và hạ tầng trung tâm dữ liệu tăng vọt, đẩy chi phí công nghệ toàn cầu lên cao và tạo nên áp lực lạm phát mới.
Hình ảnh: Shutterstock
Tác giả: Chris Bryant
12 tháng 05, 2026 lúc 7:48 PM
Tóm tắt bài viết bởi
Chi phí xây dựng hạ tầng AI vẫn đang tiếp tục tăng. Các tập đoàn công nghệ lớn nhiều khả năng sẽ rót hàng ngàn tỉ USD vào thị trường trong vài năm tới để đáp ứng cơn nghiện ChatGPT và Claude của người dùng.
Nhưng những hóa đơn đầu tư khổng lồ đó không chỉ xuất phát từ việc các “hyperscaler” như Microsoft hay Meta Platforms liên tục xây thêm hoặc thuê thêm trung tâm dữ liệu. Giá của các linh kiện bên trong những “nhà kho điện toán” khổng lồ này cũng đang leo thang, buộc nhiều công ty phải chi nhiều tiền hơn dự tính.

“Lạm phát chip” không chỉ là vấn đề với các tập đoàn công nghệ đang phải tìm cách kiếm lời từ những khoản đầu tư khổng lồ của họ. Cơn sốt AI cũng đang hút bớt nguồn cung chip truyền thống. Khi chiếc điện thoại thông minh hoặc máy chơi game tiếp theo của bạn đắt hơn nhiều so với đời trước, hãy đổ lỗi cho AI, như đồng nghiệp Dave Lee của tôi từng viết.
Việc mọi người dùng AI để lập trình ứng dụng hay sử dụng các tác nhân AI để khai thuế tiếp tục tạo thêm nhu cầu cho các linh kiện phần cứng hỗ trợ những hoạt động này, gồm bộ xử lý đồ họa, bộ nhớ và cả bộ xử lý trung tâm. CPU trước đây chỉ đóng vai trò thứ yếu trong cuộc cách mạng AI, nhưng nay trở nên thiết yếu để giúp các hệ thống AI tác nhân tự vận hành xử lý khối lượng công việc khổng lồ.
Một số tập đoàn công nghệ tạo ra nhiều tiền nhất thế giới cùng những startup được rót vốn lớn nhất lịch sử đang lao vào cuộc đua giành nguồn cung phần cứng vì lo sợ bị bỏ lại phía sau trong cuộc chạy đua tới siêu trí tuệ nhân tạo. Trong khi những khách hàng này tương đối ít nhạy cảm với giá cả, các nhà cung cấp chip lại nắm vị thế thống trị với những rào cản kỹ thuật và tài chính rất lớn ngăn đối thủ mới tham gia. Việc kiểm soát các nút thắt đó đang mang lại lợi nhuận khổng lồ.
Taiwan Semiconductor Manufacturing Co. (TSMC), hãng gia công chip tiên tiến lớn nhất thế giới, dự kiến đầu tư khoảng 56 tỉ USD trong năm nay, mức cao kỷ lục. Tuy vậy, con số này vẫn chưa đủ để đáp ứng nhu cầu chip tiên tiến. Sự thiếu hụt đó đã khiến Elon Musk cân nhắc xây dựng nhà máy chip riêng. Dự án này có thể tiêu tốn ít nhất 55 tỉ USD và thậm chí lên tới 119 tỉ USD.
Khi cầu vượt quá cung, giá cả tất nhiên sẽ tăng lên. Đó là lý do cổ phiếu các công ty cung cấp phần cứng AI đang vượt xa phần lớn khách hàng hyperscaler của họ, những bên đang phải bỏ ra lượng tiền khổng lồ để duy trì vị thế trong cuộc chơi. Alphabet là ngoại lệ hiếm hoi nhờ các cải tiến chip do hãng tự phát triển.
“Gần như toàn bộ giá trị đều đang dồn vào mảng chip, điều chưa từng có và khó duy trì lâu dài,” James Covello, giám đốc nghiên cứu cổ phiếu toàn cầu của Goldman Sachs, nói với khách hàng. “Các công ty chip đang phát triển mạnh nhờ phần lợi nhuận bị hút khỏi những bên ở phía trên chuỗi cung ứng.”

Báo cáo lợi nhuận gần đây của các hyperscaler cho thấy áp lực lạm phát đang tác động mạnh ra sao. Microsoft dự báo giá linh kiện tăng sẽ làm chi phí đầu tư vốn cả năm tăng thêm 25 tỉ USD, nâng tổng mức chi lên con số gây choáng là 190 tỉ USD. Meta cũng nâng điểm giữa trong dự báo chi tiêu vốn thêm 10 tỉ USD và cho biết phần lớn đến từ chi phí linh kiện, đặc biệt là chip nhớ.
GPU của Nvidia, “động lực” của ngành AI với giá lên tới hàng chục ngàn USD mỗi chiếc, từ lâu đã trở thành cỗ máy in tiền với biên lợi nhuận gộp đạt 75%. Dù các mẫu mới nhất cực kỳ đắt đỏ, chúng cũng hiệu quả hơn đáng kể về hiệu suất và mức tiêu thụ điện năng. Những đổi mới về xử lý song song và phần mềm của công ty xứng đáng được tưởng thưởng. Tuy nhiên, vị thế thống trị của Nvidia trên thị trường bộ tăng tốc AI, loại phần cứng dùng để xử lý tác vụ AI, khiến lợi nhuận khổng lồ của hãng bị gọi là “thuế Nvidia”.
Các công ty công nghệ hiện cũng ngày càng phải trả thêm “thuế bộ nhớ” vì trung tâm dữ liệu đang tiêu thụ quá nhiều bộ nhớ. Một phần nguyên nhân là hầu hết bộ tăng tốc AI tiên tiến cần lượng lớn bộ nhớ băng thông cao. Loại bộ nhớ này được cung cấp bởi một dạng DRAM có lợi nhuận rất cao và tiêu tốn nhiều silicon, chuyên dùng để lưu trữ tạm thời dữ liệu và ứng dụng với tốc độ cao.
Ba nhà cung cấp DRAM lớn nhất thế giới gồm SK Hynix, Samsung Electronics và Micron Technology đã trở thành tâm điểm của thị trường chứng khoán với tổng giá trị vốn hóa hiện vượt 2,8 ngàn tỉ USD.
Biên lợi nhuận hoạt động của SK Hynix đạt mức kỷ lục 72% trong quý tài chính gần nhất. Công ty Hàn Quốc này thẳng thắn cho biết khách hàng đang “ưu tiên đảm bảo nguồn cung hơn là giá cả”. Trong cùng giai đoạn ba tháng đó, giá bán trung bình DRAM của Samsung đã tăng hơn 90% so với quý trước.
Theo hãng nghiên cứu SemiAnalysis, tổng chi cho các loại bộ nhớ khác nhau có thể chiếm tới 30% chi phí đầu tư của các hyperscaler vào năm 2026. Năm 2024, tỉ lệ này chỉ ở mức 8%.
Các hyperscaler và nhóm “neocloud”, tức các công ty cho thuê GPU để cung cấp năng lực tính toán, vẫn tin rằng các khoản đầu tư sẽ mang lại hiệu quả dù chi phí thường vượt dự kiến. Ít nhất, tình trạng thiếu nguồn cung giúp giảm nguy cơ các bộ xử lý đời cũ nhanh chóng mất giá trị vì kém hiệu quả. CoreWeave, một công ty neocloud nổi bật, cho biết giá thuê đang “tăng trên diện rộng”.

Dù vậy, quy mô đầu tư chip quá lớn đang tạo động lực mạnh để các hyperscaler tìm cách cắt giảm chi phí tính toán. Một hướng đi là sử dụng bộ xử lý AI thay thế từ Advanced Micro Devices hoặc tự phát triển phần cứng riêng, như tensor processing unit của Alphabet, chip Trainium của Amazon hay Maia 200 của Microsoft.
Amazon kỳ vọng Trainium sẽ giúp hãng tiết kiệm hàng chục tỉ USD mỗi năm cho chi phí nội bộ. Anthropic và OpenAI, chủ sở hữu Claude và ChatGPT, đã ký các hợp đồng trị giá hàng tỉ USD để mua chip từ công ty của Jeff Bezos, dù phần lớn nguồn cung ngắn hạn đã được bán hết hoặc đặt trước.
Trong số các đổi mới đáng chú ý khác, công nghệ nén TurboQuant của Google có thể giúp giảm chi phí bộ nhớ, còn Arm Holdings kỳ vọng CPU mới của họ sẽ cắt giảm khoảng 10 tỉ USD chi phí cho mỗi gigawatt công suất trung tâm dữ liệu. Trong lúc đó, làn sóng chi tiêu mạnh tay của giới công nghệ đang kéo theo nhiều tác động ngoài ý muốn. Việc nhập khẩu phần cứng liên quan AI từ Đài Loan và các nơi khác đang làm thâm hụt thương mại của Mỹ nặng hơn, điều mà Tổng thống Donald Trump xem là thước đo cho thất bại kinh tế.
Ngoài cơn sốt AI, các nhà sản xuất điện thoại thông minh, máy chơi game và PC cũng đang chật vật tìm nguồn cung chip nhớ vì các hãng sản xuất ưu tiên thị trường trung tâm dữ liệu có lợi nhuận cao hơn cùng các hợp đồng dài hạn với hyperscaler. Các công ty điện tử tiêu dùng giờ phải lựa chọn giữa tăng giá sản phẩm, hạ cấu hình thiết bị hoặc chấp nhận biên lợi nhuận suy giảm. Doanh số điện thoại thông minh toàn cầu được dự báo giảm khoảng 13% trong năm nay, trong đó các mẫu máy giá rẻ chịu ảnh hưởng mạnh nhất. Nintendo cũng đã tăng giá máy Switch 2.
Việc xây dựng nhà máy bán dẫn cần nhiều năm nên nguồn cung khó có thể tăng nhanh trong ngắn hạn. Đây vốn là ngành có tính chu kỳ cao và nhiều công ty từng chịu thua lỗ nặng cách đây chưa lâu, khiến họ dè dặt hơn với việc mở rộng quá mức.
Nếu tính thêm giá điện tăng vì các trung tâm dữ liệu tiêu thụ điện khổng lồ, AI có thể sẽ tiếp tục gây áp lực lạm phát trong một thời gian dài.
“Những nhu cầu khổng lồ đối với chất bán dẫn, bộ nhớ và các linh kiện khác phục vụ xây dựng hạ tầng AI dường như đang lan sang giá tiêu dùng,” chuyên gia kinh tế Tiffany Wilding của Pimco nhận định khi đề cập tới đà tăng của lạm phát chi tiêu tiêu dùng cá nhân.
Nếu Fed không thể hạ lãi suất vì những yếu tố này, cuộc theo đuổi siêu trí tuệ nhân tạo đầy quyết liệt và tốn kém của các phòng thí nghiệm AI sẽ không chỉ bị xem là liều lĩnh về tài chính. Xét trên góc độ xã hội, cuối cùng mọi người đều sẽ phải trả giá.
Theo Bloomberg
Theo phattrienxanh.baotainguyenmoitruong.vn
https://phattrienxanh.baotainguyenmoitruong.vn/cac-dai-gia-ai-dang-doi-mat-bai-toan-lam-phat-lon-57821.html
Tặng bài viết
Đối với thành viên đã trả phí, bạn có 5 bài viết mỗi tháng để gửi tặng. Người nhận quà tặng có thể đọc bài viết đầy đủ miễn phí và không cần đăng ký gói sản phẩm.
Bạn còn 5 bài viết có thể tặng
Liên kết quà tặng có giá trị trong vòng 7 ngày.
BÀI LIÊN QUAN