每日經濟新聞 2025-08-25 14:25:05
每經AI快訊,據智象未來微信公眾號8月25日消息,為了攻克效果“失控”與效率低下等問題,智象未來團隊將視覺自回歸(VAR)架構引入圖像編輯,提出了全新的指令引導編輯框架VAREdit。
在EMU-Edit和PIE-Bench這兩個業界公認的基準測試數據集上,VAREdit在傳統的CLIP的評價指標和更能體現編輯精準性的GPT指標均取得了顯著優勢。其中,VAREdit-8.4B在GPT-Balance指標上較ICEdit和UltraEdit分別提升41.5%和30.8%;輕量版VAREdit-2.2B可在0.7秒內完成512×512圖像高保真編輯。目前,VAREdit已在GitHub和Hugging Face平臺全面開源。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP