A large language model adapted for time-series forecasting achieves near-optimal zero-shot performance on diverse datasets across different time scales and granularities.
令人惊讶的是:大型语言模型竟然可以直接适应时间序列预测任务,并且在各种不同时间尺度和粒度的数据集上达到接近最优的零样本性能。这打破了人们对LLM仅适用于文本处理的认知,展示了模型架构的通用性潜力。