原本這個大作業前面四題都卡住了,但是到最後一題怎麼也輸出不了內容給我去查看,救救孩子吧,已經找了很多個ai耗了一天了,但是一個都沒給我解決
這個是大作業內容
Spark 數據處理
使用以下快遞物流數據完成 Spark 數據分析任務:
快遞單號, 城市, 費用
A101, Beijing, 25
A102, Shanghai, 30
A103, Guangzhou, 20
A104, Beijing, 35
1.在本地創建文件 logistics_data.txt,將數據上傳到 HDFS 路徑/user/hadoop/exam/11_logistics_data(11為學號後兩位)。
2. 編寫代碼,讀取該文件並解析為以下格式的 RDD:
(城市, 費用)
3. 計算每個城市的總物流費用。
4. 將代碼打包成logistics_ xxx.jar(xxx為名字英文簡寫)文件,並在終端運行查看結果。
這些是我已經完成了的進度





