1. 下列何者不屬於資料整合(Data Integration)的主要目的?
(A) 統一不同來源資料的格式與欄位定義,以確保分析一致性;
(B) 識別並處理重複資料,避免影響模型訓練結果;
(C) 整併多來源資料,以提升資料完整性與應用價值;
(D) 依資料保存政策延長原始資料留存期限,以利未來可能的分析需求
說明
資料整合(Data Integration)的核心目標是將來自多個不同來源的資料匯總、清理並轉換成單一、一致的視圖,以便組織能更有效地進行資料分析與商業決策。
(A) 統一不同來源資料的格式與欄位定義: 這是資料整合中「資料轉換(Data Transformation)」的重要步驟,確保不同系統(例如 CRM 和 ERP)的資料能夠互相對話。
(B) 識別並處理重複資料: 這是「資料清理(Data Cleansing)」的過程,在整併多方資料時非常關鍵,可確保資料品質並避免分析或模型訓練產生偏差。
(C) 整併多來源資料: 這是資料整合最直接的核心定義與目的,旨在打破資料孤島(Data Silos),提升資料的完整性。
(D) 延長原始資料留存期限: 這屬於資料治理(Data Governance)中的資料生命週期管理(Data Lifecycle Management)或資料保存政策(Data Retention Policy)範疇,與「資料整合」本身將多個資料源合併的動作與目的無關。
2. 某智慧城市專案導入 AI 技術,以優化垃圾收集路線調度並即時監測空氣品質變化。系統需持續蒐集環境數據(如 PM2.5、氣體濃度)與設備狀態(如垃圾桶滿溢度)。下列何種技術最直接支援上述需求?
(A) 專家系統(Expert System);
(B) 決策支援系統(Decision Support System);
(C) 啟發式決策引擎(Heuristic Decision Engine);
(D) 感知器網路(Sensor Network)
說明
這題考察的是智慧城市中「資料蒐集」的基礎架構技術。
(D) 為正確答案: 感知器網路(又稱感測器網路) 是物聯網(IoT)的核心組成部分。
運作邏輯: 它由大量散布在城市各處的微小感測節點組成,能即時監測物理環境資訊(如空氣品質感測器、垃圾桶滿溢紅外線感測器)。
直接支援需求: 題目中提到的「持續蒐集環境數據(PM2.5、氣體濃度)」與「監測設備狀態(滿溢度)」,第一步必須仰賴硬體感測器將物理訊號轉化為數位資料並傳輸回後端。這是整個智慧城市 AI 系統最直接、最前端的支援技術。
(A) 錯誤: 專家系統 是一種基於規則(If-Then)的早期 AI,模擬人類專家的邏輯進行推理。它負責的是「分析」,而非「蒐集資料」。
(B) 錯誤: 決策支援系統 (DSS) 是一個整合資料與分析模型,用來輔助管理者做決定的軟體系統。它是資料蒐集「之後」的處理平台,不是蒐集工具本身。
(C) 錯誤: 啟發式決策引擎 通常用於解決複雜的優化問題(如尋找垃圾車的最短路徑),它屬於演算法層次,無法直接執行「即時監測空氣品質」這種物理任務。
3. 下列何者不符合非監督式學習(Unsupervised Learning)的典型特徵?
(A) 模型可依據資料中的特徵相似性進行自動分群;
(B) 訓練過程中不需仰賴事先定義的標籤資料;
(C) 常用於探索資料的潛在結構或隱含模式;
(D) 模型主要學習輸入特徵與既定目標標記之間的對應關係
說明
這題考察的是 非監督式學習(Unsupervised Learning) 與 監督式學習(Supervised Learning) 的核心差異。
(D) 為正確答案(描述錯誤): * 學習「輸入特徵」與「既定目標標記(Labels)」之間的「對應關係」,這是 監督式學習 的定義。
在監督式學習中,我們會告訴 AI:「這張圖片的特徵是圓形、紅色,它的目標標記是『蘋果』」。
(A) 正確: 自動分群(Clustering) 是非監督式學習最經典的應用。模型會觀察資料點在空間中的距離,將長得像的(相似度高的)聚在一起。
(B) 正確: 非監督式學習的最大特點就是 「不需標籤」。它處理的是原始、未經人工標註的資料。
(C) 正確: 由於沒有標籤引導,模型的工作就是去 「探索」。例如,從顧客消費紀錄中發現潛在的消費族群結構,或是從複雜數據中進行 降維(Dimensionality Reduction) 以提取隱含模式。
4. 某保險公司建立 AI 理賠金額預測模型。歷史理賠資料經檢定後呈近似常態分佈,但仍存在少數極端高額案件。資料科學團隊在不破壞整體分佈特性的前提下,規劃進行離群值處理。下列何者最不適當?
(A) 依統計準則(如 Z-score 或 IQR)評估後,再決定是否調整或處理極端值;
(B) 採用截尾(Trimming)處理極端值,以提升模型穩定性;
(C) 使用 One-hot 編碼(One-hot Encoding)將離群值轉換為類別特徵以改善數值穩定性;
(D) 結合領域知識評估其合理性,再決定保留或修正
說明
在處理連續型數值資料(如理賠金額)的離群值時,使用 One-hot 編碼是最不符合邏輯且不適當的做法。
(C) 最不適當的原因: One-hot 編碼(獨熱編碼)是專門用來處理無序的類別型特徵(Categorical Features)(例如:顏色、地區、血型)的技術。理賠金額屬於連續型數值(Continuous Variables),其數值的大小本身具有相對應的數學與商業意義。如果將連續數值強制轉換為 One-hot 編碼,不僅會喪失金額大小的連續性與量級資訊,還可能導致資料維度暴增(維度災難),這完全無法改善「數值穩定性」。
(A) 適當: 題目提到資料近似常態分佈,利用 Z-score(依賴平均數與標準差)或 IQR(四分位距)等統計準則,是客觀識別並評估數值型極端值的標準且科學的第一步。
(B) 適當: 截尾(Trimming,剃除特定百分比的極端值)或縮尾(Winsorizing,將極端值限縮在特定邊界內)是處理數值型離群值的常規手法。這能有效避免少數極端高額案件對模型(尤其是對誤差平方和敏感的模型)造成過大拉扯,從而提升模型訓練的穩定性。
(D) 適當: 這一點在保險業尤為重要。極端高額理賠可能不是「資料錯誤(Data Error)」,而是真實發生的「巨災或重大事故」。結合精算或理賠的領域知識進行評估,才能決定這些資料是該被排除、平滑化,還是應該被獨立出來用另一個模型(例如大額理賠預測模型)來處理。
5. 某銀行建立 AI 詐欺交易偵測模型。歷史交易資料中,詐欺樣本比例極低,導致模型訓練時偏向預測為「正常交易」。資料科學團隊評估採用 SMOTE(SyntheticMinority Over-sampling Technique)改善訓練資料分佈。下列何者最符合 SMOTE技術的主要功能?
(A) 透過隨機刪除部分正常交易資料,以降低類別失衡程度;
(B) 依據少數類別樣本的特徵空間,合成產生新的少數類別樣本;
(C) 調整模型的損失函數(Loss Function)權重,使誤判少數類別時的懲罰提高;
(D) 交叉驗證(Cross-validation)方式重新分割資料集,使各個資料類別比例一致
說明
在機器學習處理類別不平衡(Class Imbalance)問題時,SMOTE 是一種非常經典且有效的過取樣(Over-sampling)技術。
(B) 為主要功能: SMOTE 的全稱是「合成少數類別過取樣技術」。它的工作原理並非簡單地「複製」現有的少數類別資料,而是透過在特徵空間中,尋找少數類別樣本及其近鄰(K-Nearest Neighbors),並在這些點之間的連線上隨機產生「合成」的新樣本。這樣做可以擴大少數類別的決策邊界,使模型學到更具泛化性的特徵。
(A) 錯誤: 隨機刪除多數類別資料(如正常交易)的做法稱為「隨機欠取樣(Random Under-sampling)」,雖然也能降低失衡程度,但會導致大量有用資訊的流失。
(C) 錯誤: 調整損失函數權重的方法稱為「代價敏感學習(Cost-Sensitive Learning)」。這是從演算法層面(而非資料層面)來處理不平衡問題,通常透過設定 class_weight 參數來實現。
(D) 錯誤: 交叉驗證是一種評估模型穩定性的實驗方法。雖然在分割資料時可以使用「分層採樣(Stratified Sampling)」來保持原有的比例,但它本身並不具備「改變資料集比例」以解決失衡問題的功能。
6. 資料科學團隊在模型訓練前,需對數值特徵進行正規化(Normalization)或標準化(Standardization)。為確保模型評估結果具真實性並避免資料洩漏(Data Leakage),下列何者為最適當的作法?
(A) 於資料分割前,先對完整資料集計算統計量並進行標準化處理;
(B) 先分割訓練資料(Training Data)和測試資料(Test Data),並各自獨立計算統計量後進行標準化;
(C) 先分割訓練資料(Training Data)和測試資料(Test Data),僅以訓練資料計算統計量,再套用至測試資料;
(D) 僅對訓練資料(Training Data)進行標準化處理,測試資料(Test Data)保持原始數值
說明
這是機器學習工作流程中極其關鍵的一環,目的在於防止資料洩漏(Data Leakage)。
資料洩漏 : 在模型訓練過程中,不恰當地使用了不應該獲取的資訊,導致訓練數據包含目標變數的相關資訊,但在實際應用(預測)時這些資訊是無法獲得的。標準化 (Standardization) : 將資料轉換為平均數為 $0$,標準差為 $1$ 的分佈。
正規化 (Normalization) : 將資料縮放到固定區間(通常是 $0$ 到 $1$)。
(C) 為最適當的做法: 模型的目標是處理「未來」或「不可見」的資料。在進行標準化(Standardization)時,我們計算訓練集的平均值(Mean)與標準差(Standard Deviation)。為了模擬真實應用場景,測試集必須被視為完全未知的資料,因此測試集必須使用訓練集計算出的參數來進行縮放。這樣才能確保模型在評估時,完全沒有接觸到測試集的任何資訊。
(A) 錯誤(嚴重資料洩漏): 如果在分割前對全體資料進行標準化,測試集的資訊(如最大值、平均值)就會滲透進訓練過程中。這會導致模型評估結果過於樂觀,但在實際部署時表現不佳。
(B) 錯誤: 如果測試集「獨立」計算自己的統計量,會導致同一數值在訓練集與測試集中被轉換成不同的標準化結果。例如:訓練集的 100 元被轉換成 $0.5$,而測試集的 100 元因為分佈不同被轉換成 $0.8$。這會造成資料分佈不一致,導致模型預測失準。
(D) 錯誤: 機器學習模型(尤其是神經網路或距離算法)對數值量級非常敏感。如果訓練資料是縮放過的(例如 $0$ 到 $1$ 之間),而測試資料是原始數值(例如 $10,000$),模型會完全無法處理這些數值,導致預測結果毫無意義。
7. 某電信公司建立機器學習模型預測用戶流失風險。資料中包含多個類別型特徵(Categorical Features),例如「資費方案類型」與「客戶地區」。為使模型能有效使用這些特徵,下列何者最直接用於將類別型特徵轉換為模型可處理的數值格式?
(A) 資料分群(Data Clustering);
(B) 特徵交叉(Feature Cross);
(C) One-hot 編碼(One-hot Encoding);
(D) 寬深模型(Wide and Deep)
說明
這題考察的是特徵工程(Feature Engineering)中處理類別型資料的最基礎且最直接的技術。
(C) 為正確答案: 機器學習演算法(如邏輯迴歸、SVM、神經網路)本質上是數學運算,無法直接處理「資費方案 A」或「台北市」這樣的文字標籤。One-hot 編碼(獨熱編碼)的作法是為每個類別創建一個新的二元特徵(0 或 1)。例如「地區」有台北、台中、高雄,編碼後「台北」會變成 [1, 0, 0],「台中」變成 [0, 1, 0]。這是將類別轉換為數值最標準且直接的方法。
(A) 錯誤: 資料分群(如 K-means)是一種非監督式學習演算法,用於將相似的資料點聚集在一起,它本身不是一種編碼轉換技術,反而通常需要先將資料數值化後才能進行分群。
(B) 錯誤: 特徵交叉是指將兩個或多個特徵組合起來產生新的特徵(例如:地區 X 資費方案),目的是捕捉特徵間的交互作用,而非單純的類別轉換。
(D) 錯誤: 寬深模型(Wide & Deep Learning)是由 Google 提出的一種模型架構(結合了線性模型與深度模型),雖然它在處理類別特徵(特別是稀疏特徵)上非常強大,但它是「模型本身」,而非「將類別轉數值」的基礎轉換技術。
補充:類別型特徵常用的兩種轉換方式
Label Encoding (標籤編碼): 將類別直接轉為數字(如:台北=1, 台中=2, 高雄=3)。
缺點: 會讓模型誤以為這些數字有「大小順序」之分(例如模型可能認為高雄 > 台北)。
One-hot Encoding (獨熱編碼): 將類別展開為獨立欄位。
優點: 解決了順序問題。
缺點: 當類別過多(如全台灣有 300 多個行政區)時,會導致資料維度過高。
8. 某零售企業在建置機器學習模型預測顧客購買機率時, 資料同時包含大量稀疏類別特徵與數值型特徵。 團隊希望模型既能學習過去已出現的特徵組合規律,也能對未出現的特徵組合做出合理預測。 下列哪一種模型架構最適合此類需求?
(A) 線性迴歸(Linear Regression);
(B) 決策樹(Decision Tree);
(C) 支援向量機(Support Vector Machine, SVM);
(D) 寬深模型(Wide and Deep)
說明
這題考察的是模型如何平衡「記憶(Memorization)」與「泛化(Generalization)」的能力,這正是 Wide & Deep 模型設計的核心初衷。
(D) 為最適當架構:
Wide(寬)部分: 是一個線性模型,擅長「記憶」。它能有效地處理大量的稀疏類別特徵(Sparse Features)以及特徵交叉(Feature Crosses),記住那些歷史資料中頻繁出現、具備強關聯的規則。
Deep(深)部分: 是一個深度神經網路(DNN),擅長「泛化」。透過將特徵轉換成低維度的向量(Embeddings),它能捕捉特徵之間潛在的、非線性的關係,進而對從未出現過的特徵組合做出合理的推測。
這種架構在推薦系統、點擊率預測(CTR)等需要同時處理具體規律與未知可能性的場景中表現優異。
(A) 錯誤: 線性迴歸過於簡單,無法捕捉複雜的非線性關係,且對特徵工程(手動交叉特徵)的依賴度極高。
(B) 錯誤: 決策樹雖然能處理類別與數值特徵,但在處理「極大規模的稀疏類別特徵」時效率較低,且容易過度擬合(Overfitting)。
(C) 錯誤: SVM 在處理大規模特徵(特別是高維稀疏資料)時,計算複雜度非常高,難以擴展到如零售業規模的巨量資料中。
9. 某影音串流平台建立神經網路模型,用於預測使用者最可能感興趣的影片類型。模型輸出層需將結果轉換為各類別的機率分佈,以便系統依機率高低推薦內容。下列哪一種函數最適合用於模型輸出層?
(A) Softmax 函數(Softmax Function);
(B) Sigmoid 函數(Sigmoid Function);
(C) 線性函數(Linear Function);
(D) ReLU 函數(Rectified Linear Unit Function)
說明
這題考察的是神經網路中「激發函數(Activation Function)」在不同場景下的應用,特別是針對多分類問題的輸出處理。
(A) 為最適當函數: Softmax 函數主要用於多分類模型的輸出層。它的特點是能將一個數值向量轉換成機率分佈,轉換後的所有類別機率值介於 0 與 1 之間,且總和必定等於 1。在影音平台推薦中,若有「動作」、「喜劇」、「科幻」等多種影片類型,Softmax 能告訴系統使用者對各種類型的興趣比例(例如:動作 70%、喜劇 20%、科幻 10%)。
(B) 錯誤: Sigmoid 函數通常用於二分類(Binary Classification)問題。它將單一輸出壓縮在 0 到 1 之間。雖然它也代表機率,但在處理多個互斥類別時,Sigmoid 無法確保各類別機率總和為 1,因此不如 Softmax 適合。
(C) 錯誤: 線性函數(f(x)=x)通常用於迴歸(Regression)問題的輸出層(例如預測房價、氣溫),它輸出的數值範圍是任意的,不符合「機率分佈」的需求。
(D) 錯誤: ReLU 是目前隱藏層(Hidden Layers)中最常用的激發函數,用於解決梯度消失問題並提高運算效率,但它會將負值歸零且正值無限延伸,完全不適合作為輸出層的機率轉換函數。
10. 某設計公司導入生成式 AI(Generative AI)工具,用於自動產生產品概念圖與風格草圖。為了讓系統能依據既有圖像資料產生具有變化且風格一致的新圖像,模型必須具備學習資料特性並生成新樣本的能力。下列哪一種模型技術或方法最符合上述需求?
(A) 隱變量自編碼器(Variational Autoencoder, VAE);
(B) 隨機森林(Random Forest);
(C) K-近鄰演算法(K-Nearest Neighbors, KNN);
(D) 貝氏網路(Bayesian Network)
說明
這題考察的是判別式模型(Discriminative Models)與生成式模型(Generative Models)的分辨。
(A) 為正確技術: VAE 是一種經典的生成式模型架構。它透過編碼器(Encoder)將輸入圖像壓縮成一個連續的隱空間(Latent Space)分佈,再由解碼器(Decoder)從該空間中採樣並還原出圖像。因為隱空間是連續且結構化的,設計師可以透過調整隱變量,讓系統在保持「風格一致」的同時,產生具有微小「變化」的新草圖。
(B) 錯誤: 隨機森林是一種基於決策樹的整合學習演算法,主要用於分類(如判斷這是哪種風格)或迴歸(如預測產品成本),它不具備生成新像素或圖像的能力。
(C) 錯誤: KNN 是一種基於距離的監督式學習演算法,用於分類或回歸。它只能「找出現有最接近的資料」,無法「創造」出原本不存在的新圖像樣本。
(D) 錯誤: 貝氏網路是一種機率圖形模型,用於表示變數之間的因果關係與條件機率,常用於故障診斷或風險分析,並非主流用於自動產生複雜產品概念圖的圖像生成技術。
補充:常見的圖像生成技術
VAE (Variational Autoencoder): 擅長學習平滑的特徵分佈,產生的圖像變化穩定,但有時會較模糊。
GAN (Generative Adversarial Networks): 透過生成器與判別器的對抗,能產生非常清晰、逼真的圖像。
Diffusion Models (擴散模型): 如 Stable Diffusion 或 Midjourney 的核心技術,透過逐步去除雜訊來生成高品質圖像,是目前生成式 AI 的主流。
11. 某企業導入生成式 AI(Generative AI)系統自動產出會議摘要,並規劃額外建置一套 AI 系統,用於評估摘要內容的正確性與完整性。下列何者為此 AI 系統的核心目標?
(A) 自動新增專業名詞與技術指標;
(B) 判斷摘要是否遺漏關鍵資訊或出現語意錯誤;
(C) 調整語音轉文字結果;
(D) 自動標註摘要的關鍵字與主題標籤
說明
這題考察的是生成式 AI 應用中的 「品質評估與校驗機制」。
(B) 為正確答案: 題目明確提到建置第二套系統的目的是「評估內容的正確性與完整性」。
正確性: 檢查生成式 AI 是否產生了「幻覺(Hallucination)」,即編造會議中沒說過的話或語意張冠李戴。
完整性: 確保會議中的重要決議、待辦事項等關鍵資訊沒有被遺漏。
這種做法在企業端稱為 「LLM-as-a-Judge」,即利用一個更強大或更專門的模型來監督另一個模型產出的品質。
(A) 錯誤: 自動新增專業名詞屬於「內容強化」或「格式美化」,並非在做正確性與完整性的「評估」。
(C) 錯誤: 「語音轉文字(STT/ASR)」是產出摘要前的「前處理」步驟。評估摘要品質時,通常是在文字生成的階段進行,不涉及語音端的調整。
(D) 錯誤: 標註關鍵字與主題標籤屬於「分類」或「索引(Indexing)」功能,雖然有用,但與驗證摘要內容是否「正確」無關。
12. ChatGPT、Gemini 等對話型生成式 AI 工具所依據的基礎模型技術,下列何者正確?
(A) 決策樹(Decision Tree);
(B) 大型語言模型(Large Language Model, LLM);
(C) 生成對抗網路(Generative Adversarial Network, GAN);
(D) 圖卷積網路(Graph Convolutional Network, GCN)
說明
這題考察的是當前最熱門的對話型 AI 技術架構。
(B) 為正確答案: * 核心技術: ChatGPT(由 OpenAI 開發)與 Gemini(由 Google 開發)都是建立在 大型語言模型(LLM) 之上。
架構基礎: 這些模型主要採用 Transformer 架構,透過在海量文本數據上進行預訓練,學會預測文字序列中的下一個字(Token),從而具備理解與生成自然語言的能力。
(A) 錯誤: 決策樹 是一種基礎的機器學習演算法,主要用於結構化資料的分類與回歸(例如:判斷客戶是否會流失),無法處理複雜的自然語言對話。
(C) 錯誤: 生成對抗網路 (GAN) 雖然也是生成式 AI 技術,但它主要由「生成器」與「辨別器」互相對抗組成,最常應用於 影像生成(例如:虛構人臉、風格轉換),而非文字對話。
(D) 錯誤: 圖卷積網路 (GCN) 主要用於處理「圖結構」資料(例如:社群網路中的人際關係、蛋白質分子結構),並非對話型 AI 的核心技術。
13. 根據《金融機構運用人工智慧技術作業規範》,金融機構於使用人工智慧提供金融服務並直接與消費者互動時,下列何者非必要揭露之資訊?
(A) 該服務之 AI 模型原始程式碼;
(B) 服務適用對象與用途範圍;
(C) 該服務是否為 AI 自動完成;
(D) 該服務是否提供替代方案
說明
這題考察的是台灣金管會發布之 《金融機構運用人工智慧技術作業規範》 中關於「消費者保護與資訊透明性」的規定。
(A) 為非必要揭露資訊:
商業機密保護: AI 模型的「原始程式碼(Source Code)」屬於金融機構或技術開發商的核心商業機密與智慧財產權,規範中並未要求向消費者公開原始碼。
資訊對等: 消費者通常不具備解讀程式碼的能力,公開原始碼對於提升服務透明度或保護消費者權益的實質幫助有限。
(B) 為必要揭露: 金融機構應明確說明 AI 服務的適用對象(例如:本理財建議僅針對積極型投資人)與用途範圍,以避免消費者產生誤解。
(C) 為必要揭露: 為了保障消費者的知情權,當服務是透過 AI 自動完成(例如:AI 虛擬客服、自動化核貸)時,應明確告知消費者其正與 AI 互動,而非與真實人類對話。
(D) 為必要揭露: 規範中強調「公平性」與「選擇權」。如果 AI 服務可能對消費者權益產生重大影響,金融機構應告知消費者是否提供替代方案(例如:要求人工重新審查或轉接真人客服)。
14. 下列哪一項「AI 技術應用與產業領域」的對應最為恰當?
(A) 利用 AI 分析商場顧客購買紀錄以預測股票市場波動—智慧交通;
(B) 使用 AI 進行設備故障預測與預防性維護—智慧製造;
(C) 以 AI 模型融合即時氣象資料與乘客消費行為特徵,推薦會員升級優惠方案—智慧醫療;
(D) 利用 AI 分析社群媒體互動以提升臨床診斷準確度—金融服務業
說明
這題考察的是 AI 技術在不同產業領域的實務應用邏輯,正確的對應必須符合該產業的核心業務需求。
(B) 為正確搭配:
核心應用: 在製造業中,透過感測器收集機台的振動、溫度、聲音等數據,利用 AI 進行「預防性維護(Predictive Maintenance)」,可以在設備真正壞掉前發出預警。
所屬領域: 這正是「智慧製造(Smart Manufacturing)」或工業 4.0 的核心場景,旨在降低停機損失。
(A) 錯誤: 分析「商場顧客購買紀錄」與「股票市場波動」無直接邏輯關聯,且預測股市通常屬於「金融科技(FinTech)」。
「智慧交通」的範疇應是車流調度、路徑規劃或自動駕駛。
(C) 錯誤: 「融合氣象與乘客消費」來推薦「優惠方案」,這屬於「智慧零售」或「電子商務」的精準行銷。
「智慧醫療」的核心在於輔助診斷(如醫療影像辨識)、遠距監控或新藥開發。
(D) 錯誤: 分析「社群媒體互動」來提升「臨床診斷」,在邏輯上極為牽強(臨床診斷應依據生理數據、醫學影像)。
此應用與「金融服務業」完全無關,金融服務主要應用於風險控管、反洗錢或量化交易。
15. 在資料處理中,下列何者屬於「結構化數據」的例子?
(A) 儲存在 MySQL 資料庫中的訂單記錄;
(B) 以 JSON 格式儲存的商品訂單資訊;
(C) 用 XML 標註的產品目錄;
(D) 儲存在純文字檔案中的客服對話紀錄
說明
這題考察的是資料的三種類型:結構化、半結構化與非結構化資料。
(A) 為正確答案(結構化資料): 結構化資料是指具有固定格式、明確定義的欄位(Schema),且通常以二維表(列與欄)形式存在的資料。儲存在關聯式資料庫(如 MySQL、PostgreSQL、SQL Server)或 Excel 表格中的資料是典型的結構化資料。它們可以透過 SQL 語言輕鬆查詢與管理。
(B) 與 (C) 屬於半結構化資料(Semi-structured Data): * JSON 與 XML 雖然具有標籤(Tags)或鍵值對(Key-Value pairs)來描述資料層級,但它們的結構相對彈性,不要求每一筆資料都必須擁有完全相同的欄位,因此被歸類為半結構化。
(D) 屬於非結構化資料(Unstructured Data): * 純文字檔案中的客服對話、電子郵件本文、影片、音訊、PDF 檔案等,這些資料沒有預定義的數據模型或格式,通常需要透過自然語言處理(NLP)或其他進階 AI 技術才能進行結構化分析。
16. 關於敘述性統計指標,下列敘述何者最為正確?
(A) 中位數(Median)能有效反映極端值對資料分佈的影響;
(B) 標準差(Standard Deviation)越大,代表資料越集中;
(C) 百分位數(Percentile)主要用於衡量資料在整體分布中的相對位置;
(D) 平均值(Mean)適合描述偏態且包含離群值(Outliers)的資料
說明
這題考察的是敘述性統計指標的定義以及它們對「極端值」的敏感度。
(C) 為正確敘述:
百分位數(如第 90 百分位,P90)是指將一組資料按大小順序排列後,位在該位置的數值。它最主要的用途就是告訴我們某筆數據在全體資料中的相對排名(例如:你的成績高於 90% 的人)。
(A) 錯誤: 中位數的優點在於它**「不受」**極端值的影響。
當資料中有很大或很小的離群值時,中位數依然會穩穩地待在中間,因此它不能「反映」極端值的影響,而是「避開」了極端值的干擾。
(B) 錯誤: 標準差衡量的是資料的離散程度。
標準差越大,代表資料點距離平均值越遠,也就是資料越分散;標準差越小,才代表資料越集中。
(D) 錯誤: 平均值對極端值極度敏感。
如果一組資料有嚴重的偏態或離群值(例如:一家公司裡老闆薪水一億,員工薪水三萬),平均值會被極大地拉高,導致「平均薪資」無法真實描述大多數人的情況。在這種情況下,通常建議改用「中位數」。
17. 某企業資料分析人員需針對不同型態的數據選擇合適的視覺化工具。下列哪一種情境最適合使用直方圖(Histogram)?
(A) 檢視顧客年齡資料在不同區間的集中情形;
(B) 分析產品售價與銷售量之間的關聯程度;
(C) 比較各產品類別的年度銷售總額;
(D) 在地圖上標示各縣市加盟店的地理分布位置
說明
這題考察的是不同統計圖表的使用場景,關鍵在於區分「資料分佈」與「類別比較」。
直方圖 (Histogram) 呈現單一數值的分佈情形 分數分佈、薪資級距分佈
長條圖 (Bar Chart) 比較不同類別的大小 各部門營收、各國人口比較
散佈圖 (Scatter Plot) 觀察兩個數值間的相關性 身高與體重的關係、廣告費與轉換率
折線圖 (Line Chart) 觀察資料隨時間的趨勢 股價走勢、每月降雨量
(A) 為正確答案(直方圖): 直方圖(Histogram)專門用於顯示連續型數值資料的分佈狀態。它將數值切分成連續的區間(Bins),並統計每個區間內的資料數量。透過直方圖,分析人員可以一眼看出顧客年齡是集中在青年、中年,還是呈現常態分佈。
(B) 適合使用散佈圖(Scatter Plot): 當要分析兩個數值變數(如售價 vs. 銷售量)之間的關聯性(相關係數)時,散佈圖是最理想的選擇。
(C) 適合使用長條圖(Bar Chart): 雖然長條圖長得跟直方圖很像,但長條圖用於比較離散的類別(如 A 產品、B 產品)。直方圖的 X 軸是連續數值,長條圖的 X 軸是不同類別。
(D) 適合使用地理圖/熱點圖(Heat Map/Geographic Map): 用於呈現地理空間資訊的分佈。
18. 某電商平台工程師需在已排序的價格清單中,快速定位指定價格是否存在,給定排序後陣列:arr = [3, 8, 14, 19, 21, 27, 33, 45, 52]。若搜尋目標值為 27,且採用標準二分搜尋(Binary Search)流程(每次比較後排除中位數),請問最多需要比較幾次即可找到目標?
(A) 2 次;
(B) 3 次;
(C) 4 次;
(D) 5 次
說明
二分搜尋的前提: 資料必須已經排序。
時間複雜度: O(log n)。對於 9 個元素的陣列,log2(9) 約等於 3.17,代表最差情況下約 4 次,而在本題特定目標下,3 次即可找到。(21,33,27)
19. 某物流公司導入強化式學習(Reinforcement Learning)優化車隊調度。模型在系統運行過程中,會依據不同配送狀態動態調整行動選擇方式,使決策結果逐步朝較佳績效收斂。上述模型在學習過程中的調整行為,最符合下列哪一項強化式學習核心機制?
(A) 調整策略函數以改變行動選擇機率;
(B) 更新訓練資料分布以降低模型偏差;
(C) 重新分群狀態資料以識別決策類型;
(D) 建立正確決策標籤進行誤差修正
說明
強化式學習(Reinforcement Learning, RL)與傳統的監督式學習不同,它不是透過「正確答案(標籤)」來學習,而是透過與環境互動獲得的「獎勵(Reward)」來優化決策。
(A) 為正確答案: 強化式學習的核心在於學習一個策略(Policy),這個策略函數 \pi(s) 決定了在特定狀態 s 下,採取某個行動 a 的機率。在車隊調度中,模型會觀察配送狀態(如車輛位置、剩餘油量、訂單緊急度),並根據過往經驗不斷更新策略,增加那些能獲得高分(如配送時間最短、油耗最低)行動的選取機率,使結果收斂至最佳化。
(B) 錯誤: 更新訓練資料分布是監督式學習中處理類別不平衡或資料偏移的方法,並非 RL 的核心運作機制。RL 的資料是透過互動動態產生的。
(C) 錯誤: 重新分群屬於非監督式學習(如 K-means),用於尋找資料內部的潛在結構,而非用於動態調整決策行動。
(D) 錯誤: 「建立正確標籤進行誤差修正」是監督式學習(Supervised Learning)的特徵。強化式學習沒有預先給定的「正確標籤」,只有滯後的「獎勵訊號」。強化式學習的三大核心要素代理人 (Agent): 學習者(如調度系統),負責觀察環境並做出動作。環境 (Environment): 代理人互動的對象(如物流網絡、交通狀況)。獎勵 (Reward): 衡量行動好壞的訊號。模型目標是極大化長期累積的獎勵值。這類問題的解題關鍵在於看到「動態調整行動選擇」與「績效(獎勵)收斂」,這幾乎百分之百是在描述強化式學習中的策略優化。
20. 某團隊訓練影像分類模型,發現模型在訓練資料上的準確率達 98%,但在測試資料上僅有 72%。若團隊希望提升模型對新資料的適應能力,並增加訓練資料的多樣性,下列何者最適合?
(A) 增加模型的深度與參數量,使模型學習更多細節;
(B) 對訓練影像進行旋轉、翻轉等隨機變化;
(C) 提高訓練速度,使模型更快完成學習;
(D) 僅保留模型表現較好的訓練資料
說明
這題考察的是如何解決機器學習中的過度擬合(Overfitting)問題,以及如何透過資料增強提升模型的泛化能力。
過度擬合(Overfitting)的徵兆: 題目中提到的「訓練集準確率極高(98%),但測試集準確率大幅落後(72%)」,是典型的過度擬合現象。代表模型只是「背下了」訓練資料的細節,而沒有學到具備普遍性的特徵。
(B) 為最適當做法: 這種技術稱為資料增強(Data Augmentation)。透過對現有的影像進行隨機的旋轉、翻轉、縮放、裁切或亮度調整,可以人為地擴充訓練資料的規模與多樣性。這能強迫模型學習更具代表性的特徵(例如:無論貓是頭朝左還是頭朝右,它都是貓),進而提升模型對新資料的適應(泛化)能力。
(A) 錯誤: 增加模型的深度與參數量通常會使模型更容易「背誦」細節,反而會加劇過度擬合的問題。
(C) 錯誤: 提高訓練速度(如增加學習率)與解決過度擬合或增加資料多樣性無關,且過快的速度可能導致模型無法收斂。
(D) 錯誤: 僅保留表現好的資料(挑選數據)會減少資料的多樣性,讓模型看到的範例更片面,通常會降低模型的泛化能力。
補充:解決過度擬合的常見手段
資料增強 (Data Augmentation): 如本題所述,增加訓練樣本的多樣性。
正規化 (Regularization): 如 L1/L2 正規化,限制模型參數的大小,防止模型過於複雜。
Dropout: 在訓練過程中隨機關閉部分神經元,防止模型過度依賴特定特徵。
提早結束訓練 (Early Stopping): 在測試集誤差開始上升時停止訓練。
這類問題的解題關鍵在於看到「訓練集強、測試集弱」,第一反應就應聯想到解決過度擬合,而「增加多樣性」最直接的手段就是資料增強。
21. 某時尚品牌導入生成式 AI(Generative AI)技術,建立服裝設計輔助系統。系統需根據設計師輸入的風格條件,自動產生具有高度視覺品質、細節穩定且風格變化自然的服裝草圖。團隊特別重視生成結果的穩定性與多樣性控制能力。在此需求下,下列哪一種模型技術或方法較為適合?
(A) 支援向量機(Support Vector Machine, SVM);
(B) 生成對抗網路(Generative Adversarial Network, GAN);
(C) 決策樹(Decision Tree);
(D) 擴散模型(Diffusion Model)
說明
這題考察的是目前主流生成式 AI 技術的應用場景與特性,特別是在高品質影像生成領域。
VAE學習隱空間分佈,生成穩定影像通常較為模糊,缺乏細膩細節
GAN透過對抗學習,影像清晰度高訓練困難,容易缺乏多樣性(模式塌陷)
Diffusion逐步去噪生成,品質極佳生成速度相對較慢(需要多次疊代去噪)
(D) 為正確答案: 擴散模型(如 Stable Diffusion、DALL-E 系列的核心技術)是當前圖像生成最頂尖的技術。其原理是透過向圖像添加噪聲,再學習如何精確地「去噪」來還原圖像。
細節穩定: 相比於早期的 GAN,擴散模型在生成影像時展現出更高的品質與細節穩定度,較不易出現肢體扭曲或畫面崩潰的問題。
風格變化自然與控制力: 擴散模型能很好地結合文字描述(Prompt)進行引導,讓設計師精確控制服裝的風格、材質與細節變化。
(B) 錯誤: 生成對抗網路(GAN)雖然也是生成模型,且在生成速度上較快,但其訓練過程極不穩定,容易發生「模式塌陷(Mode Collapse)」,導致產出的樣本缺乏多樣性,且在複雜細節的處理上通常遜於擴散模型。
(A) 與 (C) 錯誤: 支援向量機(SVM)與決策樹皆屬於傳統的機器學習演算法,主要用於分類或迴歸問題,並不具備「生成」高品質、高維度影像的能力。
22. 某製造業工廠規劃導入 AI 監控系統,持續分析設備感測數據(如溫度、震動與壓力)。系統需能在缺乏完整異常標註資料的情況下,辨識與一般運作型態顯著不同的狀態,並發出預警。在此需求下,下列何種技術較為適合?
(A) 使用支援向量機(Support Vector Machine, SVM)建立異常分類模型;
(B) 以決策樹(Decision Tree)學習異常類型的判斷規則;
(C) 採用變分自編碼器(Variational Autoencoder, VAE)學習正常資料分佈;
(D) 使用生成對抗網路(Generative Adversarial Network, GAN)直接預測異常標籤
說明
這題的核心關鍵在於題目提到的兩個情境條件:「缺乏完整異常標註資料」 以及 「辨識與一般型態顯著不同的狀態」。這屬於典型的異常偵測(Anomaly Detection)需求。
(C) 為正確答案: 在工業場景中,設備發生故障(異常)的頻率通常極低,因此很難收集到足夠的「異常標籤」來訓練模型。VAE 在這種情況下的運作邏輯如下:
學習正常: 僅使用設備正常運作時的大量數據來訓練 VAE。
重構與壓縮: VAE 會學習如何將正常數據壓縮並重新還原(重構)。
偵測異常: 當系統遇到異常數據(例如震動頻率突變)時,由於 VAE 在訓練時沒見過這種模式,其重構誤差(Reconstruction Error)會變得非常大。系統只要偵測到重構誤差超過閾值,就能發出預警。這種方法不需要異常標籤。
(A) 與 (B) 錯誤: 傳統的 SVM 和決策樹通常屬於監督式學習(Supervised Learning)。要建立分類模型或判斷規則,必須同時擁有「正常」與「異常」的標註資料。在缺乏異常標籤的情況下,這類模型無法發揮作用。
(D) 錯誤: GAN 雖然可以輔助生成資料,但它本身並非用於「直接預測異常標籤」。雖然有一種技術叫 AnomalyGAN,但其本質也是學習分佈而非直接預測標籤,且在實務上比 VAE 複雜且難以訓練穩定。
23. 在 AI 推論服務架構設計中,「批次推論(Batch Inference)」與「即時推論(Realtime Inference)」常依任務特性選擇不同機制。下列關於兩者特性的敘述何者最正確?
(A) 批次推論通常以同步請求方式回傳結果,以確保資料一致性;即時推論則多採非同步機制以提升系統吞吐量(Throughput);
(B) 批次推論多用於延遲容忍度較高的大規模資料處理,通常以吞吐量(Throughput)最佳化為優先;即時推論則著重於請求回應時間的穩定性與低延遲特性;
(C) 批次推論因計算資源需求高,僅適用於影像類模型;即時推論則主要應用於結構化資料模型;
(D) 即時推論為確保回應速度,通常限制為單筆資料輸入;批次推論則可支援同步多筆資料即時回傳
說明
這題考察的是 AI 系統架構中,針對不同業務需求所採用的兩種主要推論模式。區分這兩者的核心在於「對時間的敏感度」。凡是需要「馬上看到結果」的就是即時,可以「等一下或晚點整批處理」的就是批次。
(B) 為正確敘述:
批次推論(Batch Inference): 適用於不需立即得到結果的任務(例如:每晚計算明天的產品推薦清單、每個月的信用評分更新)。其核心目標是吞吐量(Throughput),即在單位時間內處理儘量多的資料,通常會累積一大批資料後集中處理,以提高硬體(如 GPU)的利用率。
即時推論(Real-time Inference): 適用於使用者在線等待結果的情境(例如:刷臉解鎖、輸入關鍵字後的自動完成、詐欺偵測)。其核心目標是低延遲(Low Latency),必須在幾毫秒到幾秒內回傳結果。
(A) 錯誤: 兩者的敘述剛好顛倒。即時推論通常採用同步(Synchronous)請求(發出 Request 後等待 Response 回傳);而批次推論通常是非同步(Asynchronous)的,任務提交後即可離開,等系統處理完後再檢查結果或寫入資料庫。
(C) 錯誤: 推論方式與資料型態(影像或結構化)無關,而是與「時效性需求」有關。影像模型也可以做即時推論(如自動駕駛),結構化資料也可以做批次推論(如定期更新銷售預測)。
(D) 錯誤: 即時推論雖然強調快速,但現代系統通常支援「微批次(Micro-batching)」以提升效能;批次推論的主要特性是處理「非即時」的大量資料,而非「同步多筆即時回傳」。
24. 某企業導入大型語言模型作為客服助理。模型已具備穩定語言能力,但在回覆偏好一致性與組織規範遵循方面仍需優化,團隊因此規劃導入人類反饋強化學習(RLHF)流程,下列何者最不屬於 RLHF 階段的典型技術活動?
(A) 透過人工評估方式建立偏好資料,使模型的不同候選輸出可反映人類主觀品質差異;
(B) 訓練一個能依據人類偏好判斷輸出品質的模型,作為模型優化過程中的回饋依據;
(C) 依據品質評估結果,調整模型生成策略,使其輸出更符合偏好導向的行為表現;
(D) 以未標註語料為主進行長週期表示學習訓練,以提升模型基礎語言建模能力
說明
這題考察的是大型語言模型(LLM)訓練流程中,RLHF(Reinforcement Learning from Human Feedback,人類反饋強化學習) 階段的定義與具體步驟。
LLM 訓練三部曲:
1. 預訓練 (Pre-training) 海量未標註語料 (D) 學習語言能力與世界知識
2. 指令微調 (SFT) 人工撰寫的問答對 學習如何對話、聽從指令
3. 人類反饋強化學習 (RLHF)人類排序/偏好資料 (A, B, C)對齊人類價值觀、提升回覆品質
解題關鍵:
RLHF 的核心在於 「人類偏好(Human Feedback)」。只要選項提到「未標註語料」、「基礎建模」,通常都屬於早期的預訓練階段,而非 RLHF。
(D) 最不屬於 RLHF 階段: 此選項描述的是 「預訓練(Pre-training)」 階段。在這個階段,模型透過閱讀海量的未標註文本(如維基百科、書籍、程式碼)來學習語言的統計規律、語法與通用知識。這是 LLM 訓練的第一步,發生在 RLHF 之前。
(A) 屬於 RLHF: 這是 RLHF 的第一步,稱為 「收集人類偏好資料」。人類標註者會對模型生成的數個答案進行排序或打分(例如:答案 A 比答案 B 好),這反映了人類的主觀品質判斷。
(B) 屬於 RLHF: 這是 RLHF 的第二步,稱為 「訓練獎勵模型(Reward Model)」。利用 (A) 步驟收集到的排序資料,訓練一個小模型來模擬人類的口味。這個獎勵模型之後能自動給 LLM 的回覆打分。
(C) 屬於 RLHF: 這是 RLHF 的第三步,利用強化學習演算法(如 PPO)根據獎勵模型的回饋來 「微調策略(Policy Optimization)」,讓模型的輸出機率分佈向人類偏好的方向移動,提升一致性與規範遵循度。
25. 在大型語言模型(LLM)的推論服務中,常透過請求批次處理(Batching)來提升系統效能。關於批次處理(Batching)機制的影響,下列敘述何者最正確?
(A) Batching 可提升加速器資源使用效率並增加整體吞吐量(Throughput),但在部分情境下可能對單筆請求延遲造成影響;
(B) Batching 主要用於加快單筆請求回應時間;
(C) Batching 的效益主要來自降低記憶體使用量,對於吞吐量(Throughput)與延遲表現影響有限;
(D) Batching 在低併發(Concurrency)請求下,仍能明顯提升系統效能
說明
這題考察的是 LLM 推論優化中,如何平衡硬體效率(GPU/TPU)與使用者體驗(延遲)。
靜態批次 (Static Batching) 等待所有請求都完成才回傳。 容易受「長文本請求」拖累,效率較低。
連續批次 (Continuous Batching) 只要有請求完成就立刻退出,並加入新請求。 目前推論引擎(如 vLLM)的主流做法,大幅提升效能。
記住一個核心權衡(Trade-off):Batching = 犧牲一點點個人的「延遲」來換取全體巨大的「吞吐量」。
(A) 為正確敘述:
提升效率與吞吐量: LLM 的推論通常是「記憶體頻寬受限(Memory Bound)」的。透過 Batching(一次處理多個請求),可以減少重複載入模型權重的次數,讓加速器(如 GPU)的運算單元在同一時間處理更多資料,顯著提升系統的總處理能力(Throughput)。
對延遲的影響: 雖然 Batching 對整體系統有利,但對於單個使用者來說,系統為了「湊滿一梯次」可能會讓先到的請求等待後到的請求,或者因為批次處理導致單次運算時間變長,進而稍微增加單筆請求的延遲(Latency)。
(B) 錯誤: Batching 的主要目的是為了「整體效率」,通常會增加或維持單筆請求的延遲,而不會加快單筆回應時間。要加快單筆時間,通常需要「並行計算(Parallelism)」技術。
(C) 錯誤: Batching 反而會增加記憶體使用量(因為需要空間來存放多個請求的 KV Cache 與中間激活值)。它的主要效益正是來自於大幅提升吞吐量。
(D) 錯誤: 在低併發(例如同時只有一個人在使用)的情況下,Batching 無法發揮作用,因為沒有其他請求可以湊成一批。此時使用 Batching 機制反而可能因為額外的管理開銷而微幅降低效能。
26. 在可解釋 AI(Explainable AI, XAI) 的分類架構中,LIME(Local Interpretable Model-agnostic Explanations)屬於哪一類解釋技術?
(A) 內建可解釋模型(Intrinsic Interpretability):模型本身具有透明的決策結構;
(B) 對話式解釋系統(Conversational AI Explainer):透過互動對話提供模型解釋;
(C) 後處理模型解釋(post-hoc):對已訓練模型提供外部解釋;
(D) 代理模型技術(Surrogate Model):訓練另一個簡單模型來完全取代原黑盒模型進行推論
說明
這題考察的是 可解釋 AI (XAI) 的核心技術分類。LIME 是目前最主流的解釋工具之一,其特性決定了它的分類位置。
Post-hoc (後處理) 訓練後再進行解釋,代表技術為 LIME、SHAP、Grad-CAM
LIME 的運作方式:「在黑盒模型周邊撒一點點資料(擾動),然後用一個簡單的模型去學這小塊範圍的行為」。因為它是「事後」且「外掛」的,所以它是 Post-hoc 且 Local 的技術。
(C) 為正確答案: * Post-hoc (後處理/事後解釋): 這類技術是在模型已經訓練完成、參數固定後,才從外部介入來解釋模型的行為。LIME 不需要知道模型的內部結構(無論是神經網路還是森林),它透過改變輸入數據並觀察輸出的變化來推導解釋,因此屬於後處理技術。
Model-agnostic (模型無關): LIME 的全稱中包含這個詞,意指它適用於任何「黑盒模型」。
(A) 錯誤: 內建可解釋模型是指模型本身就很透明,例如線性迴歸(看係數)或淺層決策樹(看路徑)。LIME 是用來解釋不透明模型的,而不是模型本身。
(B) 錯誤: 對話式解釋系統屬於應用層面的互動方式,與 LIME 這種基於數學擾動的解釋演算法層次不同。
(D) 錯誤(易混淆點): * LIME 確實使用了「代理模型(Surrogate Model)」的概念,但它建立的是 「局部代理模型 (Local Surrogate)」。
選項 (D) 提到的是「完全取代原黑盒模型」,這屬於「全域代理模型」,而 LIME 僅針對單一特定樣本周邊的行為進行局部近似解釋,並非為了取代原模型。
27. SHAP(SHapley Additive exPlanations)值常用於分析機器學習模型的輸出行為。下列何者最符合 SHAP 值所提供的資訊?
(A) 模型在訓練過程中,各特徵對損失函數收斂速度的影響程度;
(B) 依據特徵對模型整體準確率的影響,自動篩除低重要性變數;
(C) 在單一預測結果中,各輸入特徵對最終輸出所產生的貢獻分配;
(D) 透過調整特徵權重,使模型在推論階段降低計算複雜度
說明
SHAP 是一種基於博弈論(Game Theory)中「夏普里值(Shapley Value)」的可解釋 AI(XAI)技術。
(C) 為正確答案: SHAP 的核心價值在於將模型的預測結果「拆解」到各個輸入特徵上。它會計算出一個特徵在所有可能的特徵組合中,對模型預測值的平均邊際貢獻。例如:模型預測某人月薪 10 萬,SHAP 值可以告訴你「學歷」貢獻了 +2 萬,「年資」貢獻了 +3 萬,而「性別」貢獻了 0 元。它能精確地量化單一樣本中各特徵的正負向貢獻。
(A) 錯誤: 這描述的是訓練過程中的優化動力學(如梯度),與 SHAP 無關。SHAP 關注的是預測結果的解釋,而非訓練速度。
(B) 錯誤: 這是「特徵選擇(Feature Selection)」或「特徵重要性(Feature Importance)」的功能。雖然 SHAP 值的平均絕對值可以用來評估全域特徵重要性,但 SHAP 的主要功能與設計初衷是「解釋預測貢獻」,而非自動篩除變數。
(D) 錯誤: 這是「模型壓縮(Model Compression)」或「量化(Quantization)」的範疇,與 SHAP 值提供的解釋性資訊無關。
28. 在金融業導入 AI 模型與可解釋性技術時,反事實解釋(Counterfactual Explanation)最符合下列哪一種應用?
(A) 分析整體客戶群的信用風險分布,以預測未來違約率趨勢;
(B) 回溯歷史呆帳案例,辨識造成違約的主要影響因素;
(C) 分析在模型不變的前提下,客戶申請資料變動對授信決策結果的影響;
(D) 依據客戶輪廓與行為資料,推薦最適合的金融商品以提升交叉銷售
說明
這題考察的是 可解釋 AI (XAI) 中一種非常具備「行動導向」的技術:反事實解釋(Counterfactual Explanation)。
(C) 為正確答案: 反事實解釋的核心邏輯是問:「如果當時情況有所不同,結果會如何改變?」
在金融授信(如貸款審核)中,如果客戶的貸款申請被 AI 拒絕了,反事實解釋會告訴客戶:「如果您的年收入增加 10 萬,或者您的信用卡循環利息降低到 5% 以下,您的貸款申請就會被核准。」
這種技術在模型維持不變的情況下,尋找讓預測結果發生翻轉(從拒絕變核准)的最小輸入變動。它能提供具體的「改進建議」,符合公平性與透明度要求。
(A) 錯誤: 這屬於「風險預測」或「宏觀趨勢分析」,屬於整體的預測建模,而非個別案例的解釋技術。
(B) 錯誤: 回溯歷史案例辨識影響因素通常使用的是「特徵重要性」或「事後歸因分析(如 SHAP)」。這類技術告訴你「過去為什麼失敗」,而反事實解釋告訴你「未來如何成功」。
(D) 錯誤: 這屬於「推薦系統(Recommender System)」,旨在預測使用者的偏好以進行精準行銷,與「解釋決策原因或提供反事實建議」無關。
29. 在深度學習模型的分析與驗證過程中,研究人員有時會利用「顯著性圖(Saliency Map)」來輔助理解模型行為。下列何者最符合此技術的主要用途?
(A) 量化各輸入特徵對模型整體預測準確度的平均影響程度;
(B) 標示輸入資料中對單一預測結果影響較大的區域或部分;
(C) 評估在不同模型參數設定下,預測結果的穩定性變化;
(D) 比較不同模型架構在測試資料上的泛化能力差異
說明
這題考察的是電腦視覺(Computer Vision)領域中,可解釋 AI (XAI) 的常見工具:顯著性圖(Saliency Map)。看到「顯著性圖 (Saliency Map)」,請直覺聯想到影像中的 「熱點區域」 或 「像素貢獻」。它是讓人類「看見」模型「看見」了什麼的關鍵技術。
(B) 為正確答案: 顯著性圖主要應用於影像辨識模型。它的運作原理是計算輸出結果(例如:判定這張圖是「貓」)對於輸入像素的梯度(Gradient)。簡單來說,它能顯示出哪些像素的微小變動會最劇烈地影響預測結果。
視覺上,它會像一張熱點圖,亮點區域代表模型在做判斷時「盯著看」的地方。例如:辨識一隻狗時,顯著性圖可能會標示出耳朵和鼻子的輪廓,這證明了模型是根據正確的生理特徵而非背景來做決策。
(A) 錯誤: 這描述的是「全域特徵重要性(Global Feature Importance)」,通常是針對結構化資料(如表格)的統計量化,而非針對影像局部區域的空間標示。
(C) 錯誤: 這描述的是「敏感度分析(Sensitivity Analysis)」或「穩定性測試」,主要關注參數變化對結果的影響,而非輸入資料的空間貢獻。
(D) 錯誤: 泛化能力的比較通常使用測試集的準確率、召回率或 Loss 曲線,而非顯著性圖。
30. 某商業銀行想建立洗錢行為檢測系統,擁有過去 5 年的交易記錄,其中包含已確認的洗錢案例(標記為「異常」)和正常交易(標記為「正常」)。銀行希望系統能自動識別新交易是否為洗錢行為,請問使用下列哪一種機器學習方法最為適合?
(A) 監督式學習的分類問題;
(B) 非監督式學習的分群問題;
(C) 強化式學習;
(D) 非監督式學習的關聯規則挖掘
說明
這題考察的是機器學習三大類別(監督式、非監督式、強化式)的應用場景辨析。解題的關鍵在於題目中提到的「已標記資料」。
(A) 為正確答案: * 監督式學習(Supervised Learning): 當你的訓練資料中包含了「答案」(即標籤,如本題的「正常」與「異常」),目標是讓模型學習輸入特徵與標籤之間的映射關係,這就是監督式學習。
分類問題(Classification): 系統需要判斷新的交易屬於「正常」或「異常」中的哪一類,這屬於離散類別的預測,因此是分類問題。
(B) 錯誤: 分群(Clustering) 屬於非監督式學習,用於資料沒有標籤的情況,目的是找出資料中自然存在的族群。既然銀行已經有了 5 年的標記資料,不使用這些標籤會非常浪費資訊。
(C) 錯誤: 強化式學習(RL) 透過與環境互動獲得獎勵來學習策略,通常用於自動駕駛或遊戲,不適合這種基於歷史靜態資料的二元判斷任務。
(D) 錯誤: 關聯規則(Association Rules) 用於找出資料項之間的組合關係(例如:買尿布的人也會買啤酒),無法直接判斷某筆特定交易是否為洗錢。
31. 某農場收集了大量作物葉片影像,但只有 30%的影像有病害類別標註,其餘 70%的影像沒有任何標籤。農場希望充分利用所有資料來訓練病害識別模型。這種情況最適合使用哪一種學習方法?
(A) 半監督式學習(Semi-supervised Learning);
(B) 監督式學習(Supervised Learning);
(C) 非監督式學習(Unsupervised Learning);
(D) 強化式學習(Reinforcement Learning)
說明
這題考察的是如何處理「資料量很大,但只有部分標註」的實務場景。當題目中出現「部分有標籤、部分沒標籤」,且希望能「同時利用」兩者時,這就是 半監督式學習 的標準定義。
(A) 為正確答案: 半監督式學習正是為了這種情況而生。它結合了少量的「標註資料(Labeled Data)」和大量的「未標註資料(Unlabeled Data)」來進行訓練。
運作邏輯: 模型先從 30% 的標註資料中學習基礎的病害特徵,再利用這些知識去推測 70% 未標註資料的特徵分佈或產生「偽標籤(Pseudo-labels)」,進而提升模型的準確度與泛化能力。這比單純只用 30% 資料效果更好,也比完全不用標籤更精準。
(B) 錯誤: 監督式學習要求所有的訓練資料都必須有標籤。若使用此方法,農場必須捨棄那 70% 的影像,或是花費巨大成本進行人工標註,無法達成「充分利用所有資料」的目標。
(C) 錯誤: 非監督式學習完全不使用標籤,只能對葉片進行分群(Clustering),無法準確識別出特定的「病害類別」(例如分辨是紅蜘蛛還是白粉病)。
(D) 錯誤: 強化式學習是透過代理人與環境互動獲取獎勵來學習決策,與靜態影像分類任務不符。
32. 某環保局想建立 AI 系統監測空氣品質,透過分析監測站攝影機拍攝的影像來識別煙霧。系統需要在影像中找出煙霧區域並標示其位置和範圍。這個應用主要屬於電腦視覺的哪個技術領域?
(A) 影像分類,判斷影像中是否有煙霧;
(B) 物件偵測,找出煙霧位置並用方框標示;
(C) 影像分割,精確標示出煙霧的像素區域;
(D) 人臉辨識,識別煙霧來源
說明
這題考察的是電腦視覺(Computer Vision)中不同任務的細膩度差異。題目關鍵字在於:「找出區域」並「標示其位置和範圍」。
(C) 為正確答案: 影像分割的目標是將影像中的每一個像素(Pixel)進行分類。在監測煙霧時,煙霧的形狀通常是不規則且邊界模糊的。影像分割技術(如語義分割 Semantic Segmentation)能精確地把屬於「煙霧」的每一個像素點都標示出來,從而呈現出煙霧的完整範圍與輪廓。這對於評估煙霧擴散的面積和嚴重程度最為精確。
(B) 易混淆選項: 物件偵測(Object Detection) 雖然也能找出位置,但它通常是使用一個矩形方框(Bounding Box)來標示物件。對於像煙霧這種不規則、非固態的現象,方框標示會包含過多非煙霧的背景(如藍天或樹木),不如影像分割來得精準。
(A) 錯誤: 影像分類(Image Classification) 只能告訴你這張照片「有沒有」煙霧(Yes/No),無法提供煙霧在影像中的具體位置或範圍資訊。
(D) 錯誤: 人臉辨識(Face Recognition) 專門用於識別人物身份,與煙霧監測完全無關。
33. 某公車系統想預測各站點的到站時間,需要考慮歷史班次資料、即時路況、天氣等因素。由於路況變化複雜,傳統循環神經網路(Recurrent Neural Network,RNN)在建模時可能難以保留較早期的重要資訊。下列哪種架構最能解決這個問題?
(A) 卷積神經網路(Convolutional Neural Network, CNN),利用卷積層捕捉局部特徵;
(B) 自編碼器(Autoencoder, AE),先進行資料壓縮再重建;
(C) 全連接神經網路(Fully Connected Neural Network, FCNN),增加隱藏層數量;
(D) 長短期記憶網路(Long Short-Term Memory, LSTM),改善 RNN 的長期記憶問題
說明
這題考察的是處理「序列資料(Time Series)」時,不同神經網路架構的優缺點,特別是針對 RNN 缺陷的改進。
(D) 為正確答案: 傳統的 RNN 在處理長序列資料時,會面臨「梯度消失(Vanishing Gradient)」的問題,導致模型「記不住」很久以前的資訊(例如一小時前的路況對現在到站時間的影響)。LSTM 是 RNN 的變體,它引入了「門控機制(Gating Mechanism)」,包含:
遺忘門 (Forget Gate): 決定丟棄哪些不重要的舊資訊。
輸入門 (Input Gate): 決定吸收哪些新的重要資訊。
輸出門 (Output Gate): 決定哪些資訊要輸出到下一層。
透過這些閘門,LSTM 能夠有效地保留並傳遞長期的重要資訊,非常適合用於到站時間、股價預測等時間序列任務。
(A) 錯誤: CNN 擅長處理具備空間結構的資料(如影像),雖然一維卷積(1D-CNN)也能處理序列,但它主要捕捉局部模式(Local Patterns),在處理長距離依賴關係上不如 LSTM 直觀。
(B) 錯誤: 自編碼器 (AE) 主要用於資料降維、去噪或特徵提取,並非專門為處理時間序列中的長期記憶問題而設計。
(C) 錯誤: 全連接層 (FCNN) 缺乏處理序列的「時間」概念,簡單地增加層數(深層網路)反而會讓訓練更困難,且無法解決資訊隨時間流逝而遺失的問題。
34. 某保險公司每月處理約 50 萬筆理賠申請,希望建立 AI 系統自動識別可疑的詐欺案件。由於公司內部缺乏 AI 專業人員,且需要快速上線驗證效果,IT 資訊主管正在評估不同的 AI 平台解決方案。在去識別化個人隱私資料後,下列哪一種平台類型最適合該公司的需求?
(A) 從零開始建立深度學習框架並自行訓練模型;
(B) 採用開源機器學習框架進行客製化模型開發;
(C) 使用雲端 AutoML 平台進行自動化模型訓練;
(D) 購買現成的詐欺偵測軟體套件直接部署
說明
這題考察的是在企業實務中,如何根據「人才儲備」、「時效性」與「需求特性」選擇合適的 AI 開發方案。
(C) 為正確答案: * 低門檻: AutoML (Automated Machine Learning) 平台專為「缺乏 AI 專業人員」的企業設計,系統會自動執行特徵工程、選擇演算法與調整參數,使用者只需上傳資料(理賠記錄)即可。
快速上線: 相比於自行開發,AutoML 能大幅縮短從數據準備到模型部署的時間,符合「快速上線驗證效果」的需求。
客製化優勢: 由於各保險公司的詐欺模式(Fraud Patterns)可能不同,AutoML 能利用公司自有的 50 萬筆歷史資料練出專屬模型,效果通常優於通用的現成套件。
(A) 與 (B) 錯誤: 這兩者都需要公司內部具備高技術能力的資料科學家或 AI 工程師來編寫程式碼、處理神經網路架構或選擇機器學習演算法。題目已表明「缺乏 AI 專業人員」,因此這類方案並不現實,且開發週期過長。
(D) 錯誤: 雖然購買現成套件(Off-the-shelf)最快,但理賠詐欺具有高度的行業與地區特殊性。現成軟體可能無法完美適應該公司的特定業務邏輯,且往往缺乏利用公司內部 50 萬筆大數據進行「自動化演化」的靈活性,其投資報酬率(ROI)可能不如針對自有數據優化的 AutoML。
35. 某市政府規劃釋出市民用電資料供學術研究使用,資料內容包含用電紀錄與部分人口統計欄位。考量資料可能涉及可識別個人之資訊,且須符合個人資料保護相關規範,下列哪一種資料處理方式最為適當?
(A) 提供完整資料集並透過合約約定研究用途與保密責任;
(B) 僅保留用電數值資料,移除所有其他欄位以避免識別風險;
(C) 對具識別風險的資料欄位進行轉換處理,並移除直接識別資訊;
(D) 僅將資料加密後提供,確保資料在傳輸過程中的安全性
說明
這題考察的是政府或企業在釋出大數據時,如何平衡「資料可用性」與「隱私保護」的實務操作。
(C) 為正確答案: 這是目前資料開放最標準的做法,稱為「去識別化(De-identification)」。
移除直接識別資訊: 刪除姓名、身分證字號、完整地址等可以直接鎖定特定個人的資料。
轉換處理(遮蓋/概括): 對於具備高度關聯性的欄位進行處理。例如:將精確的「出生年月日」轉換為「年齡層(20-30歲)」;將精確的「地址」轉換為「行政區」;將「用電精確數值」進行級距化。這樣既能保留學術研究需要的統計特徵(如:某區老年人比例與夏季用電的相關性),又能大幅降低個人身分被還原的風險。
(A) 錯誤: 僅靠合約與保密責任(行政控管)是不夠的。依據個資法,提供者負有技術上的保護義務,若直接提供含有個資的原始資料,極易造成隱私外洩且法律風險極高。
(B) 錯誤: 雖然安全性最高,但「移除所有其他欄位」會導致資料失去學術研究的價值。研究者若不知道用電量對應的人口結構(如:家庭成員數、房屋類型),將無法得出有意義的分析結果。
(D) 錯誤: 加密僅能確保「傳輸過程」中不被第三方截獲(安全性),但一旦研究人員解密後,看到的仍是原始的個人資料(隱私性)。加密無法解決資料本身具備可識別性的問題。
36. 某電子製造公司建置 AI 視覺檢測系統,用於辨識 PCB 電路板製程缺陷。系統在影像判讀任務上表現穩定,但其模型設計與訓練目標皆侷限於特定應用範圍,無法直接遷移至其他營運決策任務。依人工智慧能力範疇分類,下列何者最符合該系統特性?
(A) 弱 AI(Weak AI/Narrow AI);
(B) 強 AI(Strong AI);
(C) 通用人工智慧(Artificial General Intelligence, AGI);
(D) 超級人工智慧(Artificial Superintelligence, ASI)
說明
這題考察的是人工智慧依據能力範疇(能力廣度與深度)的分類。
(A) 為正確答案: 弱 AI 或 狹義人工智慧(Narrow AI) 是指專門針對「特定任務」設計的 AI 系統。
即使這套系統在辨識 PCB 缺陷方面表現得比人類還要穩定、精準,但它不具備通用性。它無法拿來寫程式、無法預測股市,甚至無法辨識水果的缺陷。
目前我們生活中看到的所有 AI(如:AlphaGo、臉部辨識、自動駕駛、甚至是現階段的 ChatGPT)在定義上仍屬於「弱 AI」,因為它們都是在預設的框架內運作,不具備自主的認知能力。
(B) 與 (C) 錯誤: 強 AI 與 通用人工智慧(AGI) 意指與人類智能相當的 AI。
它能像人類一樣學習任何知識,並在不同領域間自由遷移能力。
如果該系統是 AGI,它在學會檢測 PCB 缺陷後,應該能自己領悟如何檢測手機螢幕或甚至是管理工廠財務。目前這類 AI 仍處於研究或理論階段,尚未實現。
(D) 錯誤: 超級人工智慧(ASI) 是一個假想概念,指 AI 的智能在所有領域(包含科學創造力、社交能力、智慧)都遠超人類最強大的大腦。
37. 某紡織製造公司導入 AI 系統進行布料瑕疵檢測,每天需處理來自 30 條產線的影像資料,包括高解析度照片、感測器數值、生產參數記錄等多種格式。該公司收集的資料量從每日 2GB 增長至 50GB,且需在布料離開產線前的 3 秒內完成瑕疵判定。近期團隊發現系統在尖峰時段容易出現判定延遲,影響製程節奏。若要優先改善此問題,下列哪一種做法最適合?
(A) 擴充資料儲存容量,以因應長期資料累積需求;
(B) 強化即時資料處理與推論計算資源配置,以降低延遲風險;
(C) 調整資料格式標準,以降低跨來源整合複雜度;
(D) 增加資料驗證與清理機制,以提升資料品質穩定性
說明
這題的核心痛點在於大數據(Big Data)特性中的 「速度(Velocity)」 與 「低延遲需求」。當題目提到「延遲」、「影響節奏」、「時限內完成」時,這是在考察對 Velocity(速度) 的處理能力,應優先考慮 計算資源 與 系統效能 的提升。
(B) 為正確答案: 題目明確指出系統面臨「尖峰時段判定延遲」,且目標是在「3 秒內完成判定」。這代表目前的硬體運算力(如 GPU/CPU)或資料吞吐能力已無法跟上每日 50GB 的資料流入速度。要優先改善「延遲影響製程」的問題,最直接且有效的做法就是強化推論(Inference)階段的計算資源,或優化即時處理架構(如導入邊緣運算 Edge Computing),以確保在時限內消化資料。
(A) 錯誤: 擴充儲存容量解決的是「容量(Volume)」問題,能讓你存更多資料,但對於提升「處理速度」或「降低延遲」沒有直接幫助。
(C) 錯誤: 調整格式標準能降低開發時的整合難度,但在系統已經運行且表現穩定的情況下,這屬於軟體工程的優化,無法立即解決尖峰時段硬體效能不足導致的物理性延遲。
(D) 錯誤: 增加驗證與清理機制雖然能提升品質,但往往會「增加」處理流程的時間。在已經延遲的情況下增加更多檢查步驟,反而可能讓延遲變得更嚴重。
38. 某果園管理公司計畫導入 AI 系統協助農民判斷蘋果成熟度,透過分析果實特徵資訊,評估成熟狀態並自動判斷採收時機。根據 AI 應用領域的分類,這個系統主要屬於哪一個應用領域?
(A) 自然語言處理(Natural Language Processing);
(B) 電腦視覺(Computer Vision);
(C) 語音識別(Speech Recognition);
(D) 推薦系統(Recommendation System)
說明
這題考察的是 AI 應用領域的分類。解題的關鍵在於系統處理的資料型態與感知的對象。
(B) 為正確答案: * 運作邏輯: 判斷蘋果的「成熟度」通常需要分析果實的外觀特徵,例如:顏色(紅度)、大小、形狀或表面紋理。
技術歸類: 這種利用 AI 來模擬人類視覺系統,對「影像」或「影片」進行自動辨識、分析與理解的技術,正是 電腦視覺 (Computer Vision) 的核心範疇。在農業自動化中,電腦視覺被廣泛用於果實品質檢測與自動化採收。
(A) 錯誤: 自然語言處理 (NLP) 專注於讓電腦理解與生成「人類語言(文字或對話)」,例如翻譯、摘要或聊天機器人。這與「看」蘋果成熟度無關。
(C) 錯誤: 語音識別 (Speech Recognition) 是將「語音訊號」轉換為「文字」,例如 Siri 或手機語音輸入法。蘋果並不會說話,因此無法透過聽覺判斷成熟度。
(D) 錯誤: 推薦系統 (Recommendation System) 主要是根據使用者的「歷史偏好」推薦相關商品或內容(如 Netflix 推薦電影、蝦皮推薦商品)。雖然 AI 最終會給出採收「建議」,但其核心辨識技術是影像分析,而非分析行為偏好的推薦。
39. 某企業評估於不同業務場景導入機器學習技術。下列哪一項應用情境與機器學習類型的搭配最為適當?
(A) 在醫療影像分析中,同時運用少量已標註資料與大量未標註影像進行模型訓練—監督式學習(Supervised Learning);
(B) 在智慧推薦系統中,利用顧客是否點擊的歷史標籤資料預測未來偏好—非監督式學習(Unsupervised Learning);
(C) 在詐欺交易分析中,模型透過錯誤判斷所產生的損失作為回饋訊號,持續調整策略—監督式學習(Supervised Learning);
(D) 在股價資料分析中,將歷史價格變動模式劃分為若干趨勢型態,且未使用人工標註—非監督式學習(Unsupervised Learning)
說明
這題考察機器學習三大類型(監督式、非監督式、強化式)與其實務應用情境的正確對應關係。
(D) 為正確搭配:
非監督式學習: 其特性是處理「沒有標籤(Label)」的資料,目標是找出資料中的隱藏結構或模式。
應用情境: 將股價變動「劃分為若干趨勢型態」(即「分群 Clustering」)且「未使用人工標註」,完全符合非監督式學習的定義。
(A) 錯誤: 運用「少量標註」與「大量未標註」資料進行訓練,這屬於 「半監督式學習(Semi-supervised Learning)」,而非純粹的監督式學習(監督式學習要求資料全部都要有標籤)。
(B) 錯誤: 利用「是否點擊」的歷史標籤來預測偏好,這是有明確目標(答案)的任務,屬於 「監督式學習(Supervised Learning)」 中的分類問題。
(C) 錯誤: 透過「行為產生的損失/回饋訊號」來「持續調整策略」,這描述的是與環境互動並最佳化目標的過程,屬於 「強化式學習(Reinforcement Learning)」,而非監督式學習。
40. 某製造業公司建置機器學習模型,用於預測產品是否為瑕疵品。實際生產資料中,瑕疵品比例極低,大多數樣本皆為正常品。模型測試時發現,即使模型多數預測為正常品,仍可獲得很高的整體準確率。在此情境下,若希望更有效衡量模型對瑕疵品的辨識能力,下列何者較適合作為主要評估指標?
(A) F1-score;
(B) 均方誤差(Root Mean Squared Error, RMSE);
(C) 準確率(Accuracy);
(D) 判定係數(R², Coefficient of Determination)
解析這題考察的是在 「資料不平衡(Data Imbalance)」 情況下,如何選擇適當的模型評估指標。
(A) 為正確答案: * 在瑕疵檢測中,正常品佔 99%,瑕疵品只佔 1%。如果模型「無腦」全部預測為正常品,準確率 (Accuracy) 依然高達 99%,但這樣的模型完全無法抓出瑕疵,是毫無意義的。F1-score 是 精確率 (Precision) 與 召回率 (Recall) 的調和平均數。它同時考慮了「抓得準不準」與「抓得全不全」,能夠在資料極度不平衡時,真實反映模型對少數類別(瑕疵品)的辨識能力。
(B) 錯誤: RMSE 是用於評估 「迴歸問題(Regression)」(預測數值,如房價)的指標,不適用於判斷瑕疵與否的「分類問題」。
(C) 錯誤: 如前所述,準確率 (Accuracy) 在類別不平衡時會產生誤導(即「準確率陷阱」),無法區分模型是真的厲害,還是只是單純偏向預測多數類別。
(D) 錯誤: R² (判定係數) 同樣是用於 「迴歸問題」,用來衡量模型對資料變異的解釋程度。
41. 在大型語言模型(LLM)的效能優化中,Flash Attention 常被用來改善 Transformer 注意力機制的運算效率。關於 Flash Attention 的主要效益,下列敘述何者最正確?
(A) 透過忽略影響較小的注意力權重,減少模型需要計算的關聯數量,以降低運算成本;
(B) 透過調整注意力計算與資料處理方式,減少中間結果的儲存需求,進而改善速度與資源使用效率;
(C) 透過增加注意力計算的並行程度,使模型可同時處理更多注意力頭部;
(D) 透過將注意力結果暫存於高速快取記憶體,以避免重複計算造成延遲
解析這題考察的是大模型(LLM)推論與訓練優化的核心技術。Flash Attention 解決了 Transformer 架構中「注意力機制(Attention)」最頭痛的記憶體讀寫問題。看到 Flash Attention,請立刻聯想到 「減少記憶體讀寫 (IO-Aware)」、「SRAM 分塊 (Tiling)」 以及 「處理超長文本」。它不是減少計算量,而是讓計算變得更有率。
(B) 為正確敘述: 傳統的注意力機制在計算時,需要將一個巨大的注意力矩陣(大小為 N*N,N 為序列長度)完整寫入 GPU 的顯存(HBM)中,這會造成頻繁且緩慢的記憶體讀寫。Flash Attention 採用了 「分塊(Tiling)」 與 「重計算(Recomputation)」 技術:它不一次算完整個大矩陣,而是分成小塊處理,並讓計算過程留在高速的 SRAM(快取)中完成。這樣大幅減少了對慢速顯存(HBM)的讀寫次數(IO-Aware),讓運算速度變快,同時也節省了記憶體空間。
(A) 錯誤: 這描述的是「稀疏注意力(Sparse Attention)」。Flash Attention 計算的是完整的(Exact)注意力,它沒有忽略任何權重,結果與原始計算完全一致,只是方法更聰明。
(C) 錯誤: 增加並行程度通常是硬體或分散式架構(如 Tensor Parallelism)的任務。Flash Attention 的重點在於優化單個注意力計算的記憶體存取瓶頸。
(D) 錯誤: 雖然它利用了高速快取(SRAM),但核心目的不是「避免重複計算」,而是「減少大數據量在不同記憶體層級間的搬運次數」。
42. 某企業建置基於檢索增強生成(RAG)的法遵知識輔助系統,用於整合法規條文、內控制度與歷史函釋文件。系統運行後發現,每當法規更新或新增解釋文件時,需重新建立完整索引,導致更新期間系統暫停服務,且部分回應偶有引用舊版內容的情形。若希望在兼顧查詢效率的同時提升知識更新彈性與系統穩定性,下列何者最適合?
(A) 提升模型推論資源配置,以維持高流量查詢時的回應效能;
(B) 調整語言模型的輸出限制機制,以降低生成內容與法規不一致的風險;
(C) 建立固定法規問答對照表,以規則化方式優先回應常見問題;
(D) 導入可支援增量更新的索引管理方式,使異動文件可即時反映於檢索結果
說明
這題考察的是 RAG(Retrieval-Augmented Generation,檢索增強生成) 架構在企業實務中的維護與更新問題。當題目提到 「法規頻繁更新」、「不想暫停服務」 時,技術上的標準解法就是優化 資料索引(Index)的更新效率,即選擇具備 「增量更新」 能力的向量資料庫(如 Pinecone, Milvus 或 Weaviate)。
(D) 為正確答案:
核心痛點: 題目中提到的「重新建立完整索引」與「暫停服務」是傳統靜態索引的弊端。當新法規出現時,系統必須停機重算所有文件的向量(Embedding),效率極低。
解決方案: 增量更新(Incremental Update / Upsert) 技術允許系統僅針對「新增」或「修改」的文件進行向量化並插入資料庫,而不必更動舊有的索引。這能實現 「熱更新(Hot Update)」,讓法規更新即時生效,且不會造成系統停機,同時也解決了引用舊版內容的問題(透過版本管理或刪除舊索引)。
(A) 錯誤: 提升推論資源(增加 GPU)只能加快模型「說話」的速度,無法解決「資料庫內容過時」或「索引更新慢」的資料層級問題。
(B) 錯誤: 調整輸出限制(如降低溫度或加強 Prompt 约束)可以減少幻覺,但如果檢索回來的參考資料本身就是舊版的,模型再怎麼優化也無法生出正確的新法規內容。這屬於「垃圾進,垃圾出(Garbage In, Garbage Out)」。
(C) 錯誤: 建立固定問答表(FAQ)雖然穩定,但完全失去了 RAG 的靈活性。法規與函釋數量龐大且更新頻繁,靠人工維護規則表無法應對大規模的知識庫管理。
43. 關於機器學習不同的學習模式,下列敘述何者錯誤?
1. 監督式學習(Supervised Learning)透過已標註資料學習輸入與目標之間的對應關係,常見任務包含分類與數值預測。
2. 非監督式學習(Unsupervised Learning)雖不需標註資料,但通常需預先定義每筆資料的正確輸出類別以利模型收斂。
3. 半監督式學習(Semi-supervised Learning)在訓練過程中僅利用未標註資料進行特徵學習,並不涉及標註資料。
4. 自監督式學習(Self-supervised Learning)的訓練方式與監督式學習相同,皆需人工逐筆提供標註資料。
5. 強化式學習(Reinforcement Learning)透過與環境互動並依據回饋訊號調整策略,以優化決策行為。
6. 自監督式學習(Self-supervised Learning)通常利用資料本身產生訓練目標,以降低對人工標註資料的依賴。
(A) 2、3、6;
(B) 2、4、5;
(C) 1、3、6;
(D) 2、3、4
說明
這題考察的是機器學習各種學習模式的定義與差異。我們逐一分析各個敘述:
正確:這是監督式學習的標準定義,利用「問題+答案」的成對資料來訓練。
錯誤:非監督式學習完全不使用標籤(即不需正確輸出類別),其目標是找出資料的內在結構(如分群)。如果預先定義了正確類別,那就變成監督式學習了。
錯誤:半監督式學習的特點是同時利用「少量標註資料」與「大量未標註資料」。敘述中提到「並不涉及標註資料」是錯誤的。
錯誤:自監督式學習與監督式最大的不同在於它不需人工逐筆標註。它是利用資料本身的某部分來預測另一部分(例如遮住一段文字讓模型預測缺字)。
正確:這是強化式學習的核心,透過「獎勵(Reward)」或「懲罰」的回饋機制來學習最優化策略。
正確:這補充說明了自監督式學習的優勢,即利用資料本身的屬性(如影像旋轉、文字順序)產生偽標籤(Pseudo-labels),減少對人工的依賴。
44. 某零售業者建立顧客行為預測模型,資料集中包含「年消費金額」、「平均單筆交易金額」及「會員年資」等數值型特徵。資料分析顯示,部分金額特徵呈現高度偏態分布,少數樣本的數值顯著高於多數觀測值。為降低極端值對模型學習穩定性的影響,下列哪一種特徵工程方法最適合?
(A) 對數轉換(Log Transformation);
(B) 區間化(Binning);
(C) One-hot 編碼(One-hot Encoding);
(D) 隨機重抽樣(Random Resampling)
說明
這題考察的是如何處理數值資料中的「偏態分布(Skewed Distribution)」與「極端值(Outliers)」。這在金融與零售業的金額資料(如年收入、消費額)中非常常見。對數轉換 (Log)適用場景為右偏態、金額、人口數。主要效果壓縮長尾、使資料接近常態分佈。當題目提到 「金額特徵」、「偏態分布」 或 「極端值影響模型穩定性」 時,標準解法就是 對數轉換 (Log Transformation)。
(A) 為正確答案: 對數轉換是處理「右偏態(Right-skewed,長尾在右側)」資料最經典的方法。運作邏輯: 它會壓縮大數值的差距,並拉大較小數值間的差異。例如,10 到 100 的對數差與 1,000,000 到 10,000,000 的對數差是相同的。效果: 能將原本呈現長尾分布的金額特徵轉變為較接近「常態分佈(Normal Distribution)」的樣子,使模型(特別是線性模型或神經網路)更穩定,並降低極端大額消費者的資料對模型權重的過度影響。
(B) 錯誤: 區間化 (Binning) 雖然也能處理極端值(例如將 100 萬以上全部歸類為「高等級」),但它會將連續數值變成類別資料,導致失去數據的精確性(Loss of information)。在目標是「降低影響」而非「改變特徵本質」時,對數轉換優於區間化。
(C) 錯誤: One-hot 編碼用於處理「類別型特徵」(如性別、地區),不能處理「數值型特徵」的分布問題。
(D) 錯誤: 隨機重抽樣用於處理「資料不平衡(如瑕疵品太少)」,無法改變特徵內部的數值分布或極端值影響。
45. 某團隊訓練深層神經網路模型時,發現訓練誤差長時間幾乎未下降,模型參數更新幅度極小,呈現學習停滯現象。若研判問題與梯度傳遞效率有關,下列何者最適合的改善策略?
(A) 延長模型訓練時間,使模型有更多機會調整參數;
(B) 增加訓練樣本數量,以提升模型學習能力;
(C) 調整模型中的啟動函數設定,以改善訓練過程的穩定性;
(D) 簡化模型結構,以降低模型過度擬合的可能性
說明
這題描述的是深度學習中非常經典的 「梯度消失(Vanishing Gradient)」 問題。看到 「訓練停滯」、「參數更新幅度極小」、「梯度傳遞效率」,這就是在考 梯度消失。首選解決方案通常是 調整啟動函數 (Activation Function)。
(C) 為正確答案:
現象分析: 題目提到「訓練誤差長時間未下降」、「參數更新幅度極小(梯度趨近於零)」且「呈現學習停滯」。這通常是因為在深層網路中,使用傳統的啟動函數(如 Sigmoid 或 Tanh)時,當輸入值過大或過小,導數會變得極小。經過多層反向傳播相乘後,梯度會呈現指數級衰減,導致底層參數幾乎無法更新。
改善策略: 更換為 ReLU (Rectified Linear Unit) 或其變體(如 Leaky ReLU)。ReLU 在正值區域的導數恆為 1,能有效防止梯度在傳遞過程中消失,從而讓深層網路能夠順利訓練。
(A) 錯誤: 如果發生了梯度消失,模型已經陷入停滯,單純延長訓練時間只是在浪費運算資源,參數更新依然會微乎其微。
(B) 錯誤: 增加樣本可以提升模型的「泛化能力」或解決「過擬合」,但無法解決「模型訓練不動」這個架構底層的數學問題。
(D) 錯誤: 簡化結構雖然能讓梯度傳遞路徑變短(進而減緩梯度消失),但這是「治標不治本」的做法,且會降低模型的表達能力。通常我們會優先透過啟動函數、殘差連接(Residual Connection)或批次正規化(Batch Normalization)來優化,而非直接砍掉層數。
46. 某市政府建置城市治理資料平台,需整合交通車流偵測資料、路口監視器影像,以及民眾透過陳情系統提交的文字通報。由於各類資料格式、儲存方式與資料型態差異甚大,導致資料清理與整合成本顯著增加。就大數據特性而言,此專案最主要面臨下列哪一項挑戰?
(A) Volume;
(B) Velocity;
(C) Variety;
(D) Veracity
說明
這題考察的是大數據(Big Data)經典的 5V 特性。解題的關鍵在於題目中提到的「資料格式、儲存方式與資料型態差異甚大」。
(C) 為正確答案: Variety (多樣性) 指的是資料來源與類型的多樣化。
專案中包含了:
結構化資料(如:交通車流偵測的數值資料)。
非結構化資料(如:監視器影像、民眾通報的純文字內容)。
當這些截然不同的資料(數值、影像、文字)需要被整合在同一個平台時,工程師必須處理各種編碼、壓縮格式與語義對齊,這正是造成「資料清理與整合成本顯著增加」的主因。
(A) 錯誤: Volume (量) 指的是資料量的規模(如 PB 級資料)。雖然城市資料量很大,但題目強調的是「格式差異」而非「存不下」。
(B) 錯誤: Velocity (速) 指的是資料產生的速度與處理的時效性。如果題目強調的是「需即時反應車流」,才屬於速度的挑戰。
(D) 錯誤: Veracity (真實性) 指的是資料的準確度與可信度(如民眾通報是否屬實)。雖然整合時會遇到雜訊,但「格式不統一」的核心問題屬於 Variety。
47. 某企業規劃導入 AI 技術支援多項資料分析任務中,下列何種屬於結構化預測(Structured Prediction)問題?
(A) 判斷一封電子郵件是否為垃圾郵件;
(B) 預測未來一週的產品需求量;
(C) 預測客戶是否可能流失;
(D) 為語音內容轉換後的文字進行逐詞標註
說明
這題考察的是機器學習中 「結構化預測(Structured Prediction)」 的定義。這類問題的特點是:輸出的結果不是一個簡單的數值或類別,而是一個具有內部結構的物件(如序列、樹狀結構或圖形)。
(D) 為正確答案: 逐詞標註(如:詞性標註 Part-of-Speech Tagging) 是典型的結構化預測。
因為句子中的每個詞並非獨立存在,標註第一個詞(如:主詞)會影響後面詞彙的標註邏輯。系統輸出的不是單一標籤,而是一個相互關聯的 「標籤序列」。這類任務需要考慮輸出元素之間的空間或時間依賴關係。
(A) 錯誤: 垃圾郵件判斷屬於「二元分類(Binary Classification)」。輸出結果只有兩個孤立的選項(是/否),不具備複雜的內部結構。
(B) 錯誤: 需求量預測屬於「迴歸問題(Regression)」。輸出結果是一個連續的標量數值(如:500 件)。
(C) 錯誤: 客戶流失預測同樣屬於「二元分類」。判斷結果是客戶「會流失」或「不會流失」,是單一類別的預測。
48. 某物流公司想導入 AI 以提升營運效率,評估不同資料型態與模型架構。下列哪一種應用情境最適合採用卷積神經網路(Convolutional Neural Network, CNN)作為主要模型架構?
(A) 依據包裹每日掃描紀錄的時間序列,預測下週各倉庫的進貨量波動;
(B) 根據客服對話逐句內容的先後順序,判斷客訴是否可能升級為申訴案件;
(C) 根據倉庫監視器影像,自動辨識貨架是否缺貨並標示缺貨區域位置;
(D) 依據車隊 GPS 路徑點的連續軌跡,預測下一段可能行駛路線
說明
這題考察的是不同深度學習架構(CNN vs. RNN/LSTM)的最適應用場景。
(C) 為正確答案: 卷積神經網路 (CNN) 的設計初衷就是為了處理具有空間結構的資料,特別是影像(Images)與影片(Videos)。
平移不變性: CNN 透過卷積核(Filter)提取特徵,無論貨架上的缺貨區域位在影像的左上角還是右下角,模型都能有效辨識。
空間特徵提取: 倉庫監視器的畫面是二維(或三維)像素矩陣,CNN 擅長捕捉邊緣、形狀到具體物件(如貨架、商品)的視覺特徵,是電腦視覺任務的首選。
(A) 錯誤: 進貨量預測屬於「時間序列資料(Time Series)」。這類資料的重點在於「時間先後順序」的依賴關係,通常使用 RNN、LSTM 或 Transformer 較為合適。
(B) 錯誤: 客服對話分析屬於「自然語言處理(NLP)」。對話內容是文字序列,雖然早期有人嘗試用 1D-CNN 處理,但目前主流與最適合的架構是 Transformer(如 BERT)或 RNN 系列,因為它們能更好地捕捉語義的上下文邏輯。
(D) 錯誤: GPS 路徑預測同樣是典型的「序列資料」。路徑點(經緯度)隨時間產生的連續軌跡,最適合處理「下一步預測」的架構是 LSTM 或 GRU。
49. 某 AI 科技公司在工業缺陷檢測領域已有成熟的辨識產品經驗。現欲與新客戶合作開發一項類似產品的表面瑕疵檢測系統,但因新產品量產不久,標註樣本極為稀少且專家標註成本高昂。在不大幅增加標註預算的前提下,下列哪一種做法最能利用該公司既有的技術優勢來提升模型表現?
(A) 增加模型參數規模,使模型具備更強表達能力;
(B) 透過資料增強(Data Augmentation)擴展影像變化,以提升模型穩定性;
(C) 重新蒐集大量影像並進行完整人工標註;
(D) 採用遷移學習(Transfer Learning),利用既有預訓練模型進行調整
說明
這題考察的是在實務中遇到 「小樣本(Small Data)」 困境時的標準解決方案。當題目提到 「標註樣本稀少」 但 「已有類似成熟產品經驗」 時,標準答案就是 遷移學習 (Transfer Learning)。
(D) 為正確答案: * 核心優勢: 該公司在「工業缺陷檢測領域」已有成熟經驗,這代表他們手頭已有訓練好的模型。這些模型已經學會了如何辨識金屬紋路、邊緣裂縫或表面刮痕等「共用特徵」。
運作邏輯: 遷移學習允許我們將一個任務中學到的知識(例如:舊產品的缺陷辨識)應用到另一個相關任務(例如:新產品的瑕疵檢測)。這樣一來,模型不需要從零開始學習如何「看懂」工業零件,只需要利用新產品的「稀少樣本」進行微調(Fine-tuning),就能快速達到極高的準確度。
(A) 錯誤: 增加模型參數規模(把模型變大)雖然能提升表達能力,但大模型需要「更多」的資料來訓練,否則會發生嚴重的 「過擬合(Overfitting)」。在樣本稀少的情況下,增加參數通常會適得其反。
(B) 錯誤: 資料增強(如翻轉、旋轉、調整亮度)確實能緩解樣本不足,但它的效果有限。如果新產品與舊產品外觀差異大,單靠旋轉現有的幾張照片,模型仍難以學會新產品特有的深度特徵。
(C) 錯誤: 題目已明確指出「專家標註成本高昂」且「不大幅增加標註預算」。重新蒐集並完整標註並不符合題意要求的成本效益。
50. 某醫院使用機器學習模型篩檢癌症患者。模型預測結果會決定哪些病人需要進一步檢查。院方非常重視盡量找出所有可能的癌症患者,即希望降低漏診(MissedDiagnosis)風險,即便這可能增加一些誤判。下列哪一個評估指標最能反映模型找出癌症患者的能力?
(A) 精準率(Precision);
(B) 召回率(Recall);
(C) 假陽性率(False Positive Rate);
(D) ROC-AUC 曲線
說明
這題考察的是在醫療篩檢任務中,如何根據「決策代價」選擇適當的評估指標。
(B) 為正確答案: 召回率 (Recall),又稱為 靈敏度 (Sensitivity),其定義是:在所有「真正患病」的人當中,模型成功抓出了多少比例。
核心邏輯: 醫院的需求是「盡量找出所有可能的患者」且「降低漏診風險」。漏診(把有病看成沒病)在醫療上是非常危險的。
特性: 當 Recall 越高,代表漏掉的患者(假陰性,False Negative)越少。即便這會導致誤判(把健康人判為有病,需進一步檢查),但對於「保命」為主的篩檢任務來說,Recall 是最重要的指標。
(A) 錯誤: 精準率 (Precision) 指的是:在所有被模型預測為「有病」的人當中,真正有病的比例。如果追求高 Precision,模型會變得非常謹慎,只敢抓最有把握的患者,這反而會導致大量漏診。
(C) 錯誤: 假陽性率 (FPR) 指的是:在所有「健康」的人當中,被模型誤判為有病的比例。醫院雖然不想增加誤判,但題目明確表示「即便增加誤判也要找出患者」,因此 FPR 不是主要考量。
(D) 錯誤: ROC-AUC 是一個綜合性的效能指標,描述模型在不同門檻下區分病人的能力。雖然它是衡量模型好壞的重要參考,但若要「針對性」地反映「找出所有患者」的能力,Recall 才是最直接的單一指標。