中图网(原中国图书网):网上书店,尾货特色书店,30万种特价书低至2折!

歡迎光臨中圖網 請 | 注冊
> >>
智能系統與技術叢書TENSORFLOW自然語言處理

包郵 智能系統與技術叢書TENSORFLOW自然語言處理

出版社:機械工業出版社出版時間:2018-05-01
開本: 16開 頁數: 320
中 圖 價:¥63.4(6.4折) 定價  ¥99.0 登錄后可看到會員價
加入購物車 收藏
開年大促, 全場包郵
?新疆、西藏除外
本類五星書更多>

智能系統與技術叢書TENSORFLOW自然語言處理 版權信息

  • ISBN:9787111629146
  • 條形碼:9787111629146 ; 978-7-111-62914-6
  • 裝幀:一般膠版紙
  • 冊數:暫無
  • 重量:暫無
  • 所屬分類:>>

智能系統與技術叢書TENSORFLOW自然語言處理 本書特色

第1章是對NLP的簡單介紹。該章將首先討論我們需要NLP的原因。接下來,將討論NLP中一些常見的子任務。之后,將討論NLP的兩個主要階段,即傳統階段和深度學習階段。通過研究如何使用傳統算法解決語言建模任務,我們將了解傳統階段NLP的特點。然后,將討論深度學習階段,在這一階段中深度學習算法被大量用于NLP。我們還將討論深度學習算法的主要系列。*后,將討論一種*基本的深度學習算法:全連接神經網絡。該章結束時會提供一份路線圖,簡要介紹后面的內容。
第2章介紹PythonTensorFlow庫,這是我們實現解決方案的主要平臺。首先在TensorFlow中編寫一段代碼,執行一個簡單的計算,并討論從運行代碼到得到結果這一過程中到底發生了什么。我們將詳細介紹TensorFlow的基礎組件。把Tensorflow比作豐富的餐廳,了解如何完成訂單,以便進一步加強對TensorFlow的理解。稍后,將討論TensorFlow的更多技術細節,例如數據結構和操作(主要與神經網絡相關)。*后,我們將實現一個全連接的神經網絡來識別手寫數字。這將幫助我們了解如何使用TensorFlow來實現端到端解決方案。第1章是對NLP的簡單介紹。該章將首先討論我們需要NLP的原因。接下來,將討論NLP中一些常見的子任務。之后,將討論NLP的兩個主要階段,即傳統階段和深度學習階段。通過研究如何使用傳統算法解決語言建模任務,我們將了解傳統階段NLP的特點。然后,將討論深度學習階段,在這一階段中深度學習算法被大量用于NLP。我們還將討論深度學習算法的主要系列。*后,將討論一種*基本的深度學習算法:全連接神經網絡。該章結束時會提供一份路線圖,簡要介紹后面的內容。 第2章介紹Python TensorFlow庫,這是我們實現解決方案的主要平臺。首先在TensorFlow中編寫一段代碼,執行一個簡單的計算,并討論從運行代碼到得到結果這一過程中到底發生了什么。我們將詳細介紹TensorFlow的基礎組件。把Tensorflow比作豐富的餐廳,了解如何完成訂單,以便進一步加強對TensorFlow的理解。稍后,將討論TensorFlow的更多技術細節,例如數據結構和操作(主要與神經網絡相關)。*后,我們將實現一個全連接的神經網絡來識別手寫數字。這將幫助我們了解如何使用TensorFlow來實現端到端解決方案。 第3章首先討論如何用TensorFlow解決NLP任務。在該章中,我們將討論如何用神經網絡學習單詞向量或單詞表示。單詞向量也稱為詞嵌入。單詞向量是單詞的數字表示,相似單詞有相似值,不同單詞有不同值。首先,將討論實現這一目標的幾種傳統方法,包括使用稱為WordNet的大型人工構建知識庫。然后,將討論基于現代神經網絡的方法,稱為Word2vec,它在沒有任何人為干預的情況下學習單詞向量。我們將通過一個實例來了解Word2vec的機制。接著,將討論用于實現此目的的兩種算法變體:skip-gram和連續詞袋(CBOW)模型。我們將討論算法的細節,以及如何在TensorFlow中實現它們。 第4章介紹與單詞向量相關的更高級方法。首先,會比較skip-gram和CBOW,討論其中哪一種有明顯優勢。接下來,將討論可用于提高Word2vec算法性能的幾項改進。然后,將討論一種更新、更強大的詞嵌入學習算法:GloVe(全局向量)算法。*后,將在文檔分類任務中實際觀察單詞向量。在該練習中,我們將看到單詞向量十分強大,足以表示文檔所屬的主題(例如,娛樂和運動)。 第5章討論卷積神經網絡(CNN),它是擅長處理諸如圖像或句子這樣的空間數據的神經網絡家族。首先,討論如何處理數據以及處理數據時涉及哪種操作,以便對CNN有較深的理解。接下來,深入研究CNN計算中涉及的每個操作,以了解CNN背后的數學原理。*后,介紹兩個練習。*個練習使用CNN對手寫數字圖像進行分類,我們將看到CNN能夠在此任務上很快達到較高的準確率。接下來,我們將探討如何使用CNN對句子進行分類。特別地,我們要求CNN預測一個句子是否與對象、人物、位置等相關。 第6章介紹遞歸神經網絡。遞歸神經網絡(RNN)是一個可以模擬數據序列的強大的神經網絡家族。首先討論RNN背后的數學原理以及在學習期間隨時間更新RNN的更新規則。然后,討論RNN的不同變體及其應用(例如,一對一RNN和一對多RNN)。*后,用RNN執行文本生成任務的練習。我們用童話故事訓練RNN,然后要求RNN生成一個新故事。我們將看到在持久的長期記憶方面RNN表現不佳。*后,討論更高級的RNN變體,即RNN-CF,它能夠保持更長時間的記憶。 第7章介紹長短期記憶網絡。RNN在保持長期記憶方面效果較差,這使我們需要探索能在更長時間內記住信息的更強大技術。我們將在該章討論一種這樣的技術:長短期記憶網絡(LSTM)。LSTM功能更強大,并且在許多時間序列任務中表現得優于其他序列模型。首先通過一個例子,研究潛在的數學原理和LSTM的更新規則,以說明每個計算的重要性。然后,將了解為什么LSTM能夠更長時間地保持記憶。接下來,將討論如何進一步提高LSTM預測能力。*后,將討論具有更復雜結構的幾種LSTM變體(具有窺孔連接的LSTM),以及簡化LSTM門控循環單元(GRU)的方法。 第8章介紹LSTM的應用:文本生成。該章廣泛評估LSTM在文本生成任務中的表現。我們將定性和定量地衡量LSTM產生的文本的好壞程度,還將比較LSTM、窺孔連接LSTM和GRU。*后,將介紹如何將詞嵌入應用到模型中來改進LSTM生成的文本。 第9章轉到對多模態數據(即圖像和文本)的處理。在該章中,我們將研究如何自動生成給定圖像的描述。這涉及將前饋模型(即CNN)與詞嵌入層及順序模型(即LSTM)組合,形成一個端到端的機器學習流程。 第10章介紹有關神經機器翻譯(NMT)模型的應用。機器翻譯指的是將句子或短語從源語言翻譯成目標語言。首先討論機器翻譯是什么并簡單介紹機器翻譯歷史。然后,將詳細討論現代神經機器翻譯模型的體系結構,包括訓練和預測的流程。接下來,將了解如何從頭開始實現NMT系統。*后,會探索改進標準NMT系統的方法。 第11章重點介紹NLP的現狀和未來趨勢。我們將討論前面提到的系統的相關*發現。該章將涵蓋大部分令人興奮的創新,并讓你直觀地感受其中的一些技術。 附錄向讀者介紹各種數學數據結構(例如,矩陣)和操作(例如,矩陣的逆),還將討論概率中的幾個重要概念。然后將介紹Keras,它是在底層使用TensorFlow的高級庫。Keras通過隱藏TensorFlow中的一些有難度的細節使得神經網絡的實現更簡單。具體而言,通過使用Keras實現CNN來介紹如何使用Keras。接下來,將討論如何使用TensorFlow中的seq2seq庫來實現一個神經機器翻譯系統,所使用的代碼比在第11章中使用的代碼少得多。*后,將向你介紹如何使用TensorBoard可視化詞嵌入的指南。TensorBoard是TensorFlow附帶的便捷可視化工具,可用于可視化和監視TensorFlow客戶端中的各種變量。

智能系統與技術叢書TENSORFLOW自然語言處理 內容簡介

本書首先介紹NLP和TensorFlow基礎知識,然后介紹如何使用Word2vec(包括不錯擴展)創建單詞嵌入,將單詞序列轉換為可由深度學習算法訪問的向量。關于經典深度學習算法的章節,如卷積神經網絡(CNN)和遞歸神經網絡(RNN),展示了句子分類和語言生成等重要的NLP任務。此外還介紹如何將高性能的RNN模型,如長短期記憶(long short memory, LSTM)單元應用于NLP任務,你還將探索神經機器翻譯并實現一個神經機器翻譯器。

智能系統與技術叢書TENSORFLOW自然語言處理 目錄

譯者序 前言 關于作者 關于審閱者 第1章 自然語言處理簡介 1 1.1 什么是自然語言處理 1 1.2 自然語言處理的任務 2 1.3 傳統的自然語言處理方法 3 1.3.1 理解傳統方法 4 1.3.2 傳統方法的缺點 7 1.4 自然語言處理的深度學習方法? 8 1.4.1 深度學習的歷史 8 1.4.2 深度學習和NLP的當前狀況 9 1.4.3 理解一個簡單的深層模型—全連接神經網絡 10 1.5 本章之外的學習路線 12 1.6 技術工具簡介 14 1.6.1 工具說明 15 1.6.2 安裝Python和scikit-learn 15 1.6.3 安裝Jupyter Notebook 15 1.6.4 安裝TensorFlow 16 1.7 總結 17 第2章 理解TensorFlow 18 2.1 TensorFlow是什么 18 2.1.1 TensorFlow入門 19 2.1.2 TensorFlow客戶端詳細介紹 21 2.1.3 TensorFlow架構:當你執行客戶端時發生了什么 21 2.1.4 Cafe Le TensorFlow:使用類比理解TensorFlow 23 2.2 輸入、變量、輸出和操作 24 2.2.1 在TensorFlow中定義輸入 25 2.2.2 在TensorFlow中定義變量 30 2.2.3 定義TensorFlow輸出 31 2.2.4 定義TensorFlow操作 31 2.3 使用作用域重用變量 40 2.4 實現我們的**個神經網絡 42 2.4.1 準備數據 43 2.4.2 定義TensorFLow圖 43 2.4.3 運行神經網絡 45 2.5 總結 46 第3章 Word2vec——學習詞嵌入 48 3.1 單詞的表示或含義是什么 49 3.2 學習單詞表示的經典方法 49 3.2.1 WordNet—使用外部詞匯知識庫來學習單詞表示 50 3.2.2 獨熱編碼表示方式 53 3.2.3 TF-IDF方法 53 3.2.4 共現矩陣 54 3.3 Word2vec—基于神經網絡學習單詞表示 55 3.3.1 練習:queen = king – he she嗎 56 3.3.2 為學習詞嵌入定義損失函數 58 3.4 skip-gram算法 59 3.4.1 從原始文本到結構化的數據 59 3.4.2 使用神經網絡學習詞嵌入 60 3.4.3 使用TensorFlow實現skip-gram 67 3.5 連續詞袋算法 69 3.6 總結 71 第4章 高級Word2vec 72 4.1 原始skip-gram算法 72 4.1.1 實現原始skip-gram算法 73 4.1.2 比較原始skip-gram算法和改進的skip-gram算法 75 4.2 比較skip-gram算法和CBOW算法 75 4.2.1 性能比較 77 4.2.2 哪個更勝一籌:skip-gram還是CBOW 79 4.3 詞嵌入算法的擴展 81 4.3.1 使用unigram分布進行負采樣 81 4.3.2 實現基于unigram的負采樣 81 4.3.3 降采樣:從概率上忽視常用詞 83 4.3.4 實現降采樣 84 4.3.5 比較CBOW及其擴展算法 84 4.4 *近的skip-gram和CBOW的擴展算法 85 4.4.1 skip-gram算法的限制 85 4.4.2 結構化skip-gram算法 85 4.4.3 損失函數 86 4.4.4 連續窗口模型 87 4.5 GloVe:全局向量表示 88 4.5.1 理解GloVe 88 4.5.2 實現GloVe 89 4.6 使用Word2vec進行文檔分類 90 4.6.1 數據集 91 4.6.2 用詞向量進行文檔分類 91 4.6.3 實現:學習詞嵌入 92 4.6.4 實現:詞嵌入到文檔嵌入 92 4.6.5 文本聚類以及用t-SNE可視化文檔嵌入 93 4.6.6 查看一些特異點 94 4.6.7 實現:用K-means對文檔進行分類/聚類 95 4.7 總結 96 第5章 用卷積神經網絡進行句子分類 97 5.1 介紹卷積神經網絡 97 5.1.1 CNN基礎 97 5.1.2 卷積神經網絡的力量 100 5.2 理解卷積神經網絡 100 5.2.1 卷積操作 100 5.2.2 池化操作 103 5.2.3 全連接層 104 5.2.4 組合成完整的CNN 105 5.3 練習:在MNIST數據集上用CNN進行圖片分類 105 5.3.1 關于數據 106 5.3.2 實現CNN 106 5.3.3 分析CNN產生的預測結果 108 5.4 用CNN進行句子分類 109 5.4.1 CNN結構 110 5.4.2 隨時間池化 112 5.4.3 實現:用CNN進行句子分類 112 5.5 總結 115 第6章 遞歸神經網絡 116 6.1 理解遞歸神經網絡 116 6.1.1 前饋神經網絡的問題 117 6.1.2 用遞歸神經網絡進行建模 118 6.1.3 遞歸神經網絡的技術描述 119 6.2 基于時間的反向傳播 119 6.2.1 反向傳播的工作原理 120 6.2.2 為什么RNN不能直接使用反向傳播 120 6.2.3 基于時間的反向傳播:訓練RNN 121 6.2.4 截斷的BPTT:更有效地訓練RNN 121 6.2.5 BPTT的限制:梯度消失和梯度爆炸 122 6.3 RNN的應用 123 6.3.1 一對一RNN 123 6.3.2 一對多RNN 123 6.3.3 多對一RNN 124 6.3.4 多對多RNN 124 6.4 用RNN產生文本 125 6.4.1 定義超參數 125 6.4.2 將輸入隨時間展開用于截斷的BPTT 125 6.4.3 定義驗證數據集 126 6.4.4 定義權重和偏置 126 6.4.5 定義狀態持續變量 127 6.4.6 用展開的輸入計算隱藏狀態和輸出 127 6.4.7 計算損失 128 6.4.8 在新文本片段的開頭重置狀態 128 6.4.9 計算驗證輸出 128 6.4.10 計算梯度和優化 129 6.4.11 輸出新生成的文本塊 129 6.5 評估RNN的文本結果輸出 130 6.6 困惑度:衡量文本結果的質量 131 6.7 有上下文特征的遞歸神經網絡:更長記憶的RNN 132 6.7.1 RNN-CF的技術描述 132 6.7.2 實現RNN-CF 133 6.7.3 RNN-CF產生的文本 138 6.8 總結 140 第7章 長短期記憶網絡 142 7.1 理解長短期記憶網絡 142 7.1.1 LSTM是什么 143 7.1.2 更詳細的LSTM 144 7.1.3 LSTM與標準RNN的區別 149 7.2 LSTM如何解決梯度消失問題 150 7.2.1 改進LSTM 152 7.2.2 貪婪采樣 153 7.2.3 集束搜索 153 7.2.4 使用詞向量 154 7.2.5 雙向LSTM(BiLSTM) 155 7.3 其他LSTM的變體 156 7.3.1 窺孔連接 156 7.3.2 門循環單元 157 7.4 總結 159 第8章 LSTM應用:文本生成 160 8.1 數據集 160 8.1.1 關于數據集 160 8.1.2 數據預處理 162 8.2 實現LSTM 162 8.2.1 定義超參數 163 8.2.2 定義參數 163 8.2.3 定義LSTM單元及操作 165 8.2.4 定義輸入和標簽 165 8.2.5 定義處理序列數據所需的序列計算 166 8.2.6 定義優化器 167 8.2.7 隨時間衰減學習率 167 8.2.8 做預測 168 8.2.9 計算困惑度(損失) 168 8.2.10 重置狀態 169 8.2.11 貪婪采樣避免單峰 169 8.2.12 生成新文本 169 8.2.13 生成的文本樣例 170 8.3 LSTM與窺孔LSTM和GRU對比 171 8.3.1 標準LSTM 171 8.3.2 門控循環單元(GRU) 172 8.3.3 窺孔LSTM 174 8.3.4 訓練和驗證隨時間的困惑度 175 8.4 改進LSTM:集束搜索 176 8.4.1 實現集束搜索 177 8.4.2 集束搜索生成文本的示例 179 8.5 LSTM改進:用單詞替代n-gram生成文本 179 8.5.1 維度災難 179 8.5.2 Word2vec補救 180 8.5.3 使用Word2vec生成文本 180 8.5.4 使用LSTM-Word2vec和集束搜索生成的文本示例 181 8.5.5 隨時間困惑度 182 8.6 使用TensorFlow RNN API 183 8.7 總結 186 第9章 LSTM應用:圖像標題生成 188 9.1 了解數據 188 9.1.1 ILSVRC ImageNet數據集 189 9.1.2 MS-COCO數據集 189 9.2 圖像標題生成實現路徑 191 9.3 使用CNN提取圖像特征 193 9.4 實現:使用VGG-16加載權重和推理 193 9.4.1 構建和更新變量 194 9.4.2 預處理輸入 195 9.4.3 VGG-16推斷 196 9.4.4 提取圖像的向量化表達 197 9.4.5 使用VGG-16預測類別概率 197 9.5 學習詞嵌入 198 9.6 準備輸入LSTM的標題 198 9.7 生成LSTM的數據 199 9.8 定義LSTM 201 9.9 定量評估結果 203 9.9.1 BLEU 203 9.9.2 ROUGE 204 9.9.3 METEOR 204 9.9.4 CIDEr 206 9.9.5 模型隨著時間變化的BLEU-4 206 9.10 為測試圖像生成標題 207 9.11 使用TensorFlow RNN API和預訓練的GloVe詞向量 210 9.11.1 加載GloVe詞向量 210 9.11.2 清洗數據 212 9.11.3 使用TensorFlow RNN API和預訓練的詞嵌入 213 9.12 總結 218 第10章 序列到序列學習:神經機器翻譯 220 10.1 機器翻譯 220 10.2 機器翻譯簡史 221 10.2.1 基于規則的翻譯 221 10.2.2 統計機器翻譯(SMT) 222 10.2.3 神經機器翻譯(NMT) 223 10.3 理解神經機器翻譯 225 10.3.1 NMT原理 225 10.3.2 NMT架構 226 10.4 為NMT系統準備數據 228 10.4.1 訓練階段 229 10.4.2 反轉源句 229 10.4.3 測試階段 230 10.5 訓練NMT 230 10.6 NMT推理 231 10.7 BLEU評分:評估機器翻譯系統 232 10.7.1 修正的精確度 232 10.7.2 簡短懲罰項 233 10.7.3 *終BLEU得分 233 10.8 從頭開始實現NMT:德語到英語的翻譯 233 10.8.1 數據介紹 234 10.8.2 處理數據 234 10.8.3 學習詞嵌入 235 10.8.4 定義編碼器和解碼器 236 10.8.5 定義端到端輸出計算 238 10.8.6 翻譯結果 239 10.9 結合詞嵌入訓練NMT 241 10.9.1 *大化數據集詞匯表和預訓練詞嵌入之間的匹配 241 10.9.2 將嵌入層定義為TensorFlow變量 243 10.10 改進NMT 245 10.10.1 教師強迫 246 10.10.2 深度LSTM 247 10.11 注意力 247 10.11.1 突破上下文向量瓶頸 247 10.11.2 注意力機制細節 248 10.11.3 注意力NMT的翻譯結果 253 10.11.4 源句子和目標句子注意力可視化 254 10.12 序列到序列模型的其他應用:聊天機器人 256 10.12.1 訓練聊天機器人 256 10.12.2 評估聊天機器人:圖靈測試 257 10.13 總結 258 第11章 自然語言處理的現狀與未來 259 11.1 NLP現狀 259 11.1.1 詞嵌入 260 11.1.2 神經機器翻譯 264 11.2 其他領域的滲透 266 11.2.1 NLP與計算機視覺結合 266 11.2.2 強化學習 268 11.2.3 NLP生成式對抗網絡 269 11.3 走向通用人工智能 270 11.3.1 一個模型學習全部 271 11.3.2 聯合多任務模型:為多個NLP任務生成神經網絡 272 11.4 社交媒體NLP 273 11.4.1 社交媒體中的謠言檢測 274 11.4.2 社交媒體中的情緒檢測 274 11.4.3 分析推特中的政治框架 274 11.5 涌現的新任務 275 11.5.1 諷刺檢測 275 11.5.2 語言基礎 276 11.5.3 使用LSTM略讀文本 276 11.6 新興的機器學習模型 277 11.6.1 階段LSTM 277 11.6.2 擴張RNN(DRNN) 278 11.7 總結 278 11.8 參考文獻 279 附錄 數學基礎與高級TensorFlow 282
展開全部

智能系統與技術叢書TENSORFLOW自然語言處理 作者簡介

圖珊·加內格達拉(Thushan Ganegedara)目前是澳大利亞悉尼大學第三年的博士生。他專注于機器學習和深度學習。他喜歡在未經測試的數據上運行算法。他還是澳大利亞初創公司AssessThreat的首席數據科學家。他在斯里蘭卡莫拉圖瓦大學獲得了理學士學位。他經常撰寫有關機器學習的技術文章和教程。此外,他經常通過游泳來努力營造健康的生活方式。

商品評論(0條)
暫無評論……
書友推薦
編輯推薦
返回頂部
中圖網
在線客服
主站蜘蛛池模板: 专业深孔加工_东莞深孔钻加工_东莞深孔钻_东莞深孔加工_模具深孔钻加工厂-东莞市超耀实业有限公司 | 水厂自动化-水厂控制系统-泵站自动化|控制系统-闸门自动化控制-济南华通中控科技有限公司 | 钢丝绳探伤仪-钢丝绳检测仪-钢丝绳探伤设备-洛阳泰斯特探伤技术有限公司 | 欧版反击式破碎机-欧版反击破-矿山石料破碎生产线-青州奥凯诺机械 | 锂电混合机-新能源混合机-正极材料混料机-高镍,三元材料混料机-负极,包覆混合机-贝尔专业混合混料搅拌机械系统设备厂家 | 桁架机器人_桁架机械手_上下料机械手_数控车床机械手-苏州清智科技装备制造有限公司 | 深圳市东信高科自动化设备有限公司 | 交变/复合盐雾试验箱-高低温冲击试验箱_安奈设备产品供应杭州/江苏南京/安徽马鞍山合肥等全国各地 | 郑州外墙清洗_郑州玻璃幕墙清洗_郑州开荒保洁-河南三恒清洗服务有限公司 | 菏泽商标注册_菏泽版权登记_商标申请代理_菏泽商标注册去哪里 | 天津仓库出租网-天津电商仓库-天津云仓一件代发-【博程云仓】 | 深圳网站建设-高端企业网站开发-定制网页设计制作公司 | 上海噪音治理公司-专业隔音降噪公司-中广通环保 | 合肥废气治理设备_安徽除尘设备_工业废气处理设备厂家-盈凯环保 合肥防火门窗/隔断_合肥防火卷帘门厂家_安徽耐火窗_良万消防设备有限公司 | 代理记账_公司起名核名_公司注册_工商注册-睿婕实业有限公司 | 珠海白蚁防治_珠海灭鼠_珠海杀虫灭鼠_珠海灭蟑螂_珠海酒店消杀_珠海工厂杀虫灭鼠_立净虫控防治服务有限公司 | 电镀标牌_电铸标牌_金属标贴_不锈钢标牌厂家_深圳市宝利丰精密科技有限公司 | 球磨机,节能球磨机价格,水泥球磨机厂家,粉煤灰球磨机-吉宏机械制造有限公司 | 紧急泄压人孔_防爆阻火器_阻火呼吸阀[河北宏泽石化] | 技德应用| 3A别墅漆/3A环保漆_广东美涂士建材股份有限公司【官网】 | 伸缩节_伸缩器_传力接头_伸缩接头_巩义市联通管道厂 | 电缆隧道在线监测-智慧配电站房-升压站在线监测-江苏久创电气科技有限公司 | 刺绳_刀片刺网_刺丝滚笼_不锈钢刺绳生产厂家_安平县浩荣金属丝网制品有限公司-安平县浩荣金属丝网制品有限公司 | 变频器维修公司_plc维修_伺服驱动器维修_工控机维修 - 夫唯科技 变位机,焊接变位机,焊接变位器,小型变位机,小型焊接变位机-济南上弘机电设备有限公司 | 煤粉取样器-射油器-便携式等速飞灰取样器-连灵动 | 臭氧老化试验箱,高低温试验箱,恒温恒湿试验箱,防水试验设备-苏州亚诺天下仪器有限公司 | 苹果售后维修点查询,苹果iPhone授权售后维修服务中心 – 修果网 拼装地板,悬浮地板厂家,悬浮式拼装运动地板-石家庄博超地板科技有限公司 | 智能风向风速仪,风速告警仪,数字温湿仪,综合气象仪(气象五要素)-上海风云气象仪器有限公司 | 亿诺千企网-企业核心产品贸易 | 德州万泰装饰 - 万泰装饰装修设计软装家居馆 | 海水晶,海水素,海水晶价格-潍坊滨海经济开发区强隆海水晶厂 | 深圳诚暄fpc首页-柔性线路板,fpc柔性线路板打样生产厂家 | 磁力抛光机_磁力研磨机_磁力去毛刺机_精密五金零件抛光设备厂家-冠古科技 | 实验室隔膜泵-无油防腐蚀隔膜泵-耐腐蚀隔膜真空泵-杭州景程仪器 电杆荷载挠度测试仪-电杆荷载位移-管桩测试仪-北京绿野创能机电设备有限公司 | 世纪豪门官网 世纪豪门集成吊顶加盟电话 世纪豪门售后电话 | GAST/BRIWATEC/CINCINNATI/KARL-KLEIN/ZIEHL-ABEGG风机|亚喜科技 | 环讯传媒,永康网络公司,永康网站建设,永康小程序开发制作,永康网站制作,武义网页设计,金华地区网站SEO优化推广 - 永康市环讯电子商务有限公司 | 台式核磁共振仪,玻璃软化点测定仪,旋转高温粘度计,测温锥和测温块-上海麟文仪器 | 岩石钻裂机-液压凿岩机-劈裂机-挖改钻_湖南烈岩科技有限公司 | CCC验厂-家用电器|服务器CCC认证咨询-奥测世纪 |