跳到主要內容

加入玉山銀行智能金融處,共創金融 AI 革新!

layout_1081x1081

⭐智能應用中心

【關於我們】實現技術與應用結合,創造無限可能

  • 運用最前端 GAI 技術,將知識圖譜、智能理財、語音客服等創新應用深度整合至金融服務,打造更智慧、更貼心的顧客體驗!
  • 從海量多元的數據中,我們像偵探一樣挖掘隱藏的模式,打造全方位的風控與行銷模型,如盜刷偵測、推薦系統,守護顧客資產安全,同時提升服務品質與滿意度~

【🔥招募中熱門職缺】

🙋‍♂️專案經理 Project Manager

工作內容

  • 規劃智能服務策略與產品發展里程碑。
  • 發掘銀行內部智能應用場景,提出解決方案並導入銀行系統和業務流程,確保順利整合。
  • 設計智能服務系統架構與使用者體驗;與工程師、業務團隊合作協作推動專案。
  • 建立監控指標與自動化機制,持續優化與維運,確保服務品質與合規。

其他條件

  • 具人工智慧與金融科技專案管理經驗,熟悉團隊協作及流程設計,能打造高效運作的工作環境。
  • 能從顧客角度拆解複雜問題,具備清晰邏輯與良好溝通能力,推動專案。
  • 擁有資訊技能涵蓋系統架構、軟體設計、系統管理與資安,協助優化並加速團隊工作流程。
  • 熟悉金融商品與相關法規,包含資訊安全與個資保護,確保專案合規與風險控管。

加分條件

  • 擁有雲端相關專案規畫經驗。

🙋‍♂️機器學習工程師 Machine Learning Engineer

工作內容

  • 協助業務單位分析需求,轉化金融挑戰為可執行的機器學習問題。
  • 進行資料探索與分析(EDA);開發與優化ML/DL模型,進行訓練、調參及 fine-tuning 並持續監控模型表現。
  • 設計自動化資料批次導入流程。
  • 協助將既有機器學習服務遷移至雲端環境。
  • 維持完善的技術文件與流程,與團隊知識共享,符合金融法規與資訊安全規範。

必備條件

  • 具備3年以上機器學習服務開發經驗。
  • 熟悉機器學習套件或任一深度學習框架 (scikit-learn/PyTorch/TensorFlow)。
  • 精通 Python 及資料處理套件(Pandas、Numpy),熟悉 API 開發與整合、SQL 操作、Airflow 調度與工作流管理與Git版本控制。
  • 了解機器學習演算法原理與數學理論。

加分條件

  • 具NLP/LLM、語音模型、推薦系統、風險偵測、影像辨識等相關研究或服務開發經驗。
  • 熟悉 GCP 雲端主要服務,如BigQuery、Cloud Composer、Vertex AI、AlloyDB等元件使用,以及基於 Serverless 架構的 Cloud Functions 和 Cloud Run等相關服務開發與部署經驗。

⭐智能系統中心

【關於我們】一起打造最酷的開源 AI 平台吧!

  • 我們揮舞 Python、Kubernetes、Airflow 等開源利器,打造超彈性又戰鬥力十足的機器學習平台,讓 AI 服務快速上線,技術架構穩如泰山!
  • 將地端服務搬到 GCP、AWS、Azure 等多雲端,透過 ArgoCD、Azure DevOps 和 CI/CD 自動化流程,實現部署快速又省錢,升級服務無壓力
  • 我們用 PostgreSQL、MinIO 管理海量資料,嚴格控管 ETL 流程與資料品質,讓 AI 團隊拿到超乾淨資料~

【🔥招募中熱門職缺】

🙋‍資料工程師 Data Engineer

工作內容

  • 設計並維護高效且可擴展的多雲資料架構,主要為 GCP 環境。
  • 打造巨量資料的 data pipeline,處理結構化、半結構化、非結構化資料。
  • 發展自動化監控與告警,讓系統隨時健康報到。
  • 評估與導入 modern data stack 工具,解決數據治理、資料品質、數據血緣、MLOps 問題。
  • 駕馭 Airflow 調度平台,協助 AI 團隊順利進行數據處理與模型訓練。
  • 廣泛使用 GCP 原生服務(BigQuery、Cloud Composer、Cloud Storage、Pub/Sub、Dataflow),打造高效資料流管線。
  • 實作即時資料流處理,讓資料清洗、轉換、聚合與分析。立刻發生。

必備條件

  • 三年以上 Airflow、PostgreSQL 系統建置與維護經驗。
  • 熟悉 CI/CD Pipeline 與 Infrastructure as Code (IaC)。
  • 精通 Linux 操作、Python 開發、Git 控制及 SQL 優化。
  • 有能力管理每日 100GB 以上資料量 ETL 與資料管線。
  • 熟悉 BigQuery、Cloud Composer 等 GCP 服務。

加分條件

  • 有 Cloud Pub/Sub 與 Dataflow 實務經驗。
  • 熟悉多種 Data Streaming 技術。
  • 熟悉 ElasticSearch、Kubernetes、Prometheus、Grafana 等系統監控工具。
  • 熟悉 Kubernetes、Docker 及自動化部署(如 Ansible)。

🙋‍資料庫管理工程師 DBA

工作內容

  • 管理雲端及地端資料元件和服務。
  • 具備 Python、SQL 寫程式能力。
  • 管控包括 BigQuery、AlloyDB、Google Cloud Storage;地端 EDB、MinIO、Neo4j 等系統。
  • 負責資料服務的規劃設計、維運、備份、升級與故障排除。
  • 長期深耕金融業,參與作業流程優化與自動化。

必備條件

  • 3年以上 BigQuery 或 PostgreSQL 建置與維護經驗。
  • 熟悉 Linux、Python、SQL 及 Git 版本控制。

加分條件

  • 懂 CI/CD Pipeline。
  • 有雲端平台(GCP、AWS、Azure)開發與運維經驗。

🙋‍SRE 工程師 (經驗者優先!)

工作內容

  • 監控營運平台與服務效能,負責故障排除。
  • 設計與推動維運自動化,讓繁瑣工作變輕鬆。
  • 跨團隊合作,打造更強健的系統架構與 Day2Ops 機制。

必備條件

  • 大學以上學歷,3 年以上相關工作經驗。
  • 熟悉 Prometheus、Grafana 或類似監控系統實務經驗。
  • 熟練 Linux 操作管理,有 Kubernetes 微服務平台經驗更佳。
  • 能用 Shell Script、Python 撰寫自動化腳本。
  • 實際操作過 CI/CD 工具。

加分條件
• 有 AWS、GCP 或 Azure 雲端串接經驗。
• 有設計監控指標並實踐 SLI/SLO/SLA 經驗。

邀請您帶著熱情與專業,一起加入我們,打造讓金融更智能、更安全、更貼心的未來!

👉歡迎到這裡投遞履歷與瀏覽更多職缺: 玉山金控菁英甄選

※應徵提醒:如有開發經驗或作業,歡迎附上一段你最自豪的程式碼,簡短說明它的功能與實作細節。這可是你的專業名片喔!

留言

這個網誌中的熱門文章

Kronos 如何做到世界級的成績

  由資深華爾街投資人領軍於 2018 年成立,Kronos Research 結合人工智慧、機器學習、高速網路等先進技術,透過進階的資料分析開發出獨家的量化交易預測模型,並使用全自動的交易策略自營,同時作為加密貨幣造市商,提供全球加密貨幣商品的即時報價。至今四年的時間,便擠身全球前五大的加密貨幣量交易團隊,創下 2021 年每日平均交易額 50 億美金,單日最高交易額 230 億美金的記錄。 人才和技術是 Kronos 最重要的兩大要素,團隊採開放式合作、解決問題導向、美式工作風格,Kronos 期許任何職位的夥伴,都能信任彼此、安心發問、共同快速解決問題。主管的管理策略,不同於傳統上對下的管理,而是以幫助者的角色,解決不同的需求,放大每個職位的生產力。我們希望這個產業在台灣能夠茁壯,讓台灣的技術人才知道有這個國際舞台可以發揮。 一窺量化交易技術及團隊 高頻交易跟一般大家熟知的交易最大的差距在於自動化。我們熟知的交易模式多半透過人工,由交易員綜合市場資訊後向交易所下單;高頻交易則是由程式自動判斷市場資訊並且下單。高頻交易多半關注短時間的市場波動,在收到市場報價後,在極短時間透過預先訓練的統計模型做出買賣決策。在高額報酬的背後,結合了不同專業:包括資料科學、統計與機器學習、底層系統優化、以及分散式系統。 高頻交易的流程,從 Market Data Parser 作為源頭持續搜集來自交易所的歷史資料,交由 Alpha Modeling 訓練出可預測未來短時間市場變動的模型。接著交易團隊撰寫策略程式,並依據策略需要套用選擇合適的 Alpha 模型,由極低延遲的交易程式向交易所下單。以下是各模塊的介紹: Market Data Parser(Data Team):高頻交易是一個資料驅動的行業,全面且高正確率的資料對於後續訓練很重要。Kronos Research 在全球十多個機房內有數百台服務器,每天 24 小時不間斷錄製來自交易所的報價單。面對每天 10TB+ 的巨量資料,data team 大量使用雲端分散技術以及自動化技術確保資料流的穩定。 Alpha Modeling(Alpha Team):在投資市場中,Alpha 代表著高於大盤的超額收益,Alpha Model 則代表預測將來市場的數學模型。Alpha Team 透過統計以及機器學習,以敏銳的邏輯跟觀...

實戰 Vibe Coding:利用 Amazon Q Developer CLI 打造經典平台跳躍遊戲

本篇文章將介紹如何透過 Amazon Q Developer CLI 建構一款完整的 2D 平台跳躍遊戲,從初始生成、功能增強,到最終打造出具備多關卡、多樣互動元素的遊戲體驗。特別的是,過程中開發者並未撰寫任何一行程式碼,僅透過自然語言指令與 CLI 對話完成所有工作,實踐「Vibe Coding」( 氛圍編碼 )。 本文作者為 Haowen Huang, AWS Senior Developer Advocate. 擁有 20 年以上電信、互聯網以及雲端運算等行業架構設計、技術及創業管理等豐富經驗,曾任職於 Microsoft、Sun Microsystems 等企業,專注為遊戲、電商、媒體和廣告等企業客戶提供 AI/ML、數據分析和企業數字化轉型等解決方案諮詢服務。 引言 本篇文章 ( English Version ) 將介紹如何使用 Amazon Q Developer CLI ,以 無需撰寫任何程式碼 的方式,打造一款經典的 2D 平台跳躍遊戲。透過「Vibe Coding」( 氛圍編碼 ) 的開發流程,開發者可以藉由簡單的語言提示詞 (prompt),逐步完成從遊戲雛型、功能擴充到完整關卡設計的開發流程。 整體開發流程將分為三個步驟: 1. 生成遊戲雛型 2. 功能擴充強化與畫面調整 3. 導入參考架構建立完整遊戲 環境建置 使用者需先安裝並設定 Amazon Q Developer CLI 。對於 macOS 使用者,可透過下列步驟完成安裝: 下載並安裝 Amazon Q Developer CLI 登入 Builder ID 完成認證 開啟終端機控制與無障礙設定 執行 q doctor 指令檢查 Amazon Q Developer CLI 是否安裝成功: 遊戲開發方面,建議使用 Python 語言與 Pygame 套件,可透過下列指令完成安裝;Pygame 提供以下功能支援: 畫面與動畫渲染 音效播放 鍵盤與搖桿輸入控制 物理模擬與碰撞偵測 多種媒體格式支援(圖片與音效) $ q doctor $ pip install pygame 第一步驟:初步生成遊戲雛型 透過簡單的一句 prompt,Amazon Q Developer CLI 結合 Pyg...

Navicat 17:AI 驅動資料管理的未來

在快速變化的資料管理領域,Navicat 始終站在創新與效率的最前沿。作為領先的資料庫管理與開發解決方案提供商,Navicat 再次以其最新版本 Navicat 17.2 展現了其在業界的卓越實力,讓使用者在資料管理中更具競爭優勢。 Navicat 17 推出標誌著資料庫管理技術的一次重要飛躍。該版本引入了一系列人工智慧 (AI) 驅動的功能,旨在進一步簡化操作流程並提升工作效率。這些功能讓使用者能夠輕鬆處理複雜的資料分析,並實現更智能的商業決策。 Navicat Premium 一直以來都是資料庫管理的佼佼者,該工具支援多達九種資料庫,包括 MySQL、PostgreSQL、MongoDB、MariaDB、SQL Server、Oracle、SQLite、Redis,以及 Snowflake。這樣的綜合性設計不僅消除了多平台切換帶來的困擾,還極大化了使用者的工作效率。 為提供更高效的協作工具,Navicat 雲端功能 (Navicat Cloud) 進一步提升了團隊合作的靈活性。使用者可以在雲端實現即時協作,讓團隊成員無論身處何地,都能共同編輯與管理項目,從而實現更高效的工作流程。 自創立以來,Navicat 已累積超過 500 萬次下載,並擁有超過 18 萬名使用者,包括多家知名的 Fortune 500 公司,如 Apple、Google、JP Morgan 等。這些成就不僅體現出 Navicat 的產品實力,更說明其在業界的深厚信譽。 Navicat 始終秉持創新與使用者導向的理念,致力於為資料管理提供最可靠、高效的解決方案。未來,我們將持續推出更多令人興奮的新功能,幫助使用者應對不斷變化的商業需求。 現在就探索 Navicat 17.2,感受 AI 技術帶來的全新資料管理體驗吧!欲了解更多資訊,歡迎造訪我們的官方網站: https://www.navicat.com.tw