-
當前位置:首頁 > 創(chuàng)意學院 > 短視頻 > 專題列表 > 正文
圖神經(jīng)網(wǎng)絡有哪些用途
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于圖神經(jīng)網(wǎng)絡有哪些用途的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務客戶遍布全球各地,相關(guān)業(yè)務請撥打電話:175-8598-2043,或添加微信:1454722008
本文目錄:
一、GNN(一) 圖神經(jīng)網(wǎng)絡基本知識
圖是由點和邊構(gòu)成的,它可以分為兩種表示方法分別是: 1. 有向圖 2. 無向圖
圖像的度分為兩種:1. 有向圖的度 2. 無向圖的度
①度 可以理解為點之間的連接線 ②入度指向當前節(jié)點的連線, 出度當前節(jié)點連出去的連線
子圖表示某張圖的子集
對于一個無向圖,如果任意的節(jié)點i能夠通過一些邊達到節(jié)點j,則稱之為連通圖
其中對于圖中任意兩點都可以 相互 到達,我們稱之為強連通圖,反之稱為弱連通圖。
可以理解為所有的連通在一起的圖算一個連通分量。如上圖左邊連通分量是1, 右邊連通分量是2。
圖中的兩個節(jié)點所能達到的最短路徑。
圖中的兩兩節(jié)點最短路徑最大的值稱之為圖直徑。
在圖論和網(wǎng)絡分析中,中心性(Centrality)是判斷網(wǎng)絡中節(jié)點重要性/影響力的指標。在社會網(wǎng)絡分析中,一項基本的任務就是鑒定一群人中哪些人比其他人更有影響力,從而幫助我們理解他們在網(wǎng)絡中扮演的角色。
公式:
重要的節(jié)點就是擁有許多連接的節(jié)點, 你的社會關(guān)系越多, 你的影響力就越強
思想就是與你連接的人越重要,你也就越重要
公式:
中間成員對路徑兩端的成員具有“更大的人際關(guān)系影響”。
接近中心性高的節(jié)點一般扮演的是八婆的角色(gossiper)。他們不一定是名人,但是樂于在不同的人群之間傳遞消息。
指出去的為hub, 被指的為authority
二、神經(jīng)網(wǎng)絡(Neural Network)
(1)結(jié)構(gòu):許多樹突(dendrite)用于輸入,一個軸突 (axon)用于輸出。
(2)特性:興奮性和傳導性。興奮性是指當信號量超過某個閾值時,細胞體就會被激活,產(chǎn)生電脈沖。傳導性是指電脈沖沿著軸突并通過突觸傳遞到其它神經(jīng)元。
(3)有兩種狀態(tài)的機器:激活時為“是”,不激活時為“否”。神經(jīng)細胞的狀態(tài)取決于從其他神經(jīng)細胞接收到的信號量,以及突觸的性質(zhì)(抑制或加強)。
(1)神經(jīng)元——不重要
① 神經(jīng)元是包含權(quán)重和偏置項的 函數(shù) :接收數(shù)據(jù)后,執(zhí)行一些計算,然后使用激活函數(shù)將數(shù)據(jù)限制在一個范圍內(nèi)(多數(shù)情況下)。
② 單個神經(jīng)元:線性可分的情況下,本質(zhì)是一條直線, ,這條直線將數(shù)據(jù)劃分為兩類。而線性分類器本身就是一個單層神經(jīng)網(wǎng)絡。
③ 神經(jīng)網(wǎng)絡:非線性可分的情況下,神經(jīng)網(wǎng)絡通過多個隱層的方法來實現(xiàn)非線性的函數(shù)。
(2)權(quán)重/參數(shù)/連接(Weight)——最重要
每一個連接上都有一個權(quán)重。一個神經(jīng)網(wǎng)絡的訓練算法就是讓權(quán)重的值調(diào)整到最佳,以使得整個網(wǎng)絡的預測效果最好。
(3)偏置項(Bias Units)——必須
① 如果沒有偏置項,所有的函數(shù)都會經(jīng)過原點。
② 正則化偏置會導致欠擬合:若對偏置正則化,會導致激活變得更加簡單,偏差就會上升,學習的能力就會下降。
③ 偏置的大小度量了神經(jīng)元產(chǎn)生激勵(激活)的難易程度。
(1)定義:也稱為轉(zhuǎn)換函數(shù),是一種將輸入 (input) 轉(zhuǎn)成輸出 (output) 的函數(shù)。
(2)作用:一般直線擬合的精確度要比曲線差很多,引入激活函數(shù)能給神經(jīng)網(wǎng)絡 增加一些非線性 的特性。
(3)性質(zhì):
① 非線性:導數(shù)不是常數(shù),否則就退化成直線。對于一些畫一條直線仍然無法分開的問題,非線性可以把直線變彎,就能包羅萬象;
② 可微性:當優(yōu)化方法是基于梯度的時候,處處可導為后向傳播算法提供了核心條件;
③ 輸出范圍:一般限定在[0,1],使得神經(jīng)元對一些比較大的輸入會比較穩(wěn)定;
④ 非飽和性:飽和就是指,當輸入比較大的時候輸出幾乎沒變化,會導致梯度消失;
⑤ 單調(diào)性:導數(shù)符號不變,輸出不會上躥下跳,讓神經(jīng)網(wǎng)絡訓練容易收斂。
(1)線性函數(shù) (linear function)—— purelin()
(2)符號函數(shù) (sign function)—— hardlim()
① 如果z值高于閾值,則激活設置為1或yes,神經(jīng)元將被激活。
② 如果z值低于閾值,則激活設置為0或no,神經(jīng)元不會被激活。
(3)對率函數(shù) (sigmoid function)—— logsig()
① 優(yōu)點:光滑S型曲線連續(xù)可導,函數(shù)閾值有上限。
② 缺點:❶ 函數(shù)飽和使梯度消失,兩端梯度幾乎為0,更新困難,做不深;
❷ 輸出不是0中心,將影響梯度下降的運作,收斂異常慢;
❸ 冪運算相對來講比較耗時
(4)雙曲正切函數(shù)(hyperbolic tangent function)—— tansig()
① 優(yōu)點:取值范圍0中心化,防止了梯度偏差
② 缺點:梯度消失現(xiàn)象依然存在,但相對于sigmoid函數(shù)問題較輕
(5)整流線性單元 ReLU 函數(shù)(rectified linear unit)
① 優(yōu)點:❶ 分段線性函數(shù),它的非線性性很弱,因此網(wǎng)絡做得很深;
❷ 由于它的線性、非飽和性, 對于隨機梯度下降的收斂有巨大的加速作用;
② 缺點:❶ 當x<0,梯度都變成0,參數(shù)無法更新,也導致了數(shù)據(jù)多樣化的丟失;
❷ 輸出不是0中心
(6)滲漏型整流線性單元激活函數(shù) Leaky ReLU 函數(shù)
① 優(yōu)點:❶ 是為解決“ReLU死亡”問題的嘗試,在計算導數(shù)時允許較小的梯度;
❷ 非飽和的公式,不包含指數(shù)運算,計算速度快。
② 缺點:❶ 無法避免梯度爆炸問題; (沒有體現(xiàn)優(yōu)于ReLU)
❷ 神經(jīng)網(wǎng)絡不學習 α 值。
(7)指數(shù)線性單元 ELU (Exponential Linear Units)
① 優(yōu)點:❶ 能避免“死亡 ReLU” 問題;
❷ 能得到負值輸出,這能幫助網(wǎng)絡向正確的方向推動權(quán)重和偏置變化;
❸ 在計算梯度時能得到激活,而不是讓它們等于 0。
② 缺點:❶ 由于包含指數(shù)運算,所以計算時間更長;
❷ 無法避免梯度爆炸問題; (沒有體現(xiàn)優(yōu)于ReLU)
❸ 神經(jīng)網(wǎng)絡不學習 α 值。
(8)Maxout(對 ReLU 和 Leaky ReLU的一般化歸納)
① 優(yōu)點:❶ 擁有ReLU的所有優(yōu)點(線性和不飽和)
❷ 沒有ReLU的缺點(死亡的ReLU單元)
❸ 可以擬合任意凸函數(shù)
② 缺點 :參數(shù)數(shù)量增加了一倍。難訓練,容易過擬合
(9)Swish
① 優(yōu)點:❶ 在負半軸也有一定的不飽和區(qū),參數(shù)的利用率更大
❷ 無上界有下界、平滑、非單調(diào)
❸ 在深層模型上的效果優(yōu)于 ReLU
每個層都包含一定數(shù)量的單元(units)。增加層可增加神經(jīng)網(wǎng)絡輸出的非線性。
(1)輸入層:就是接收原始數(shù)據(jù),然后往隱層送
(2)輸出層:神經(jīng)網(wǎng)絡的決策輸出
(3)隱藏層:神經(jīng)網(wǎng)絡的關(guān)鍵。把前一層的向量變成新的向量,讓數(shù)據(jù)變得線性可分。
(1)結(jié)構(gòu):僅包含輸入層和輸出層,直接相連。
(2)作用:僅能表示 線性可分 函數(shù)或決策,且一定可以在有限的迭代次數(shù)中收斂。
(3)局限:可以建立與門、或門、非門等,但無法建立更為復雜的異或門(XOR),即兩個輸入相同時輸出1,否則輸出0。 (“AI winter”)
(1)目的:擬合某個函數(shù) (兩層神經(jīng)網(wǎng)絡可以逼近任意連續(xù)函數(shù))
(2)結(jié)構(gòu):包含輸入層、隱藏層和輸出層 ,由于從輸入到輸出的過程中不存在與模型自身的反饋連接,因此被稱為“前饋”。 (層與層之間全連接)
(3)作用: 非線性 分類、聚類、預測等,通過訓練,可以學習到數(shù)據(jù)中隱含的知識。
(4)局限:計算復雜、計算速度慢、容易陷入局部最優(yōu)解,通常要將它們與其他網(wǎng)絡結(jié)合形成新的網(wǎng)絡。
(5)前向傳播算法(Forward Propagation)
① 方法:從左至右逐級依賴的算法模型,即網(wǎng)絡如何根據(jù)輸入X得到輸出Y,最終的輸出值和樣本值作比較, 計算出誤差 。
② 目的:完成了一次正反向傳播,就完成了一次神經(jīng)網(wǎng)絡的訓練迭代。通過輸出層的誤差,快速求解對每個ω、b的偏導,利用梯度下降法,使Loss越來越小。
② 局限:為使最終的誤差達到最小,要不斷修改參數(shù)值,但神經(jīng)網(wǎng)絡的每條連接線上都有不同權(quán)重參數(shù),修改這些參數(shù)變得棘手。
(6)誤差反向傳播(Back Propagation)
① 原理:梯度下降法求局部極值
② 方法:從后往前,從輸出層開始計算 L 對當前層的微分,獲得各層的誤差信號,此誤差信號即作為修正單元權(quán)值的依據(jù)。計算結(jié)束以后,所要的兩個參數(shù)矩陣的 梯度 就都有了。
③ 局限:如果激活函數(shù)是飽和的,帶來的缺陷就是系統(tǒng)迭代更新變慢,系統(tǒng)收斂就慢,當然這是可以有辦法彌補的,一種方法是使用 交叉熵函數(shù) 作為損失函數(shù)。
(1)原理:隨著網(wǎng)絡的層數(shù)增加,每一層對于前一層次的抽象表示更深入。在神經(jīng)網(wǎng)絡中,每一層神經(jīng)元學習到的是前一層神經(jīng)元值的更抽象的表示。通過抽取更抽象的特征來對事物進行區(qū)分,從而獲得更好的區(qū)分與分類能力。
(2)方法:ReLU函數(shù)在訓練多層神經(jīng)網(wǎng)絡時,更容易收斂,并且預測性能更好。
(3)優(yōu)點:① 易于構(gòu)建,表達能力強,基本單元便可擴展為復雜的非線性函數(shù)
② 并行性號,有利于在分布是系統(tǒng)上應用
(4)局限:① 優(yōu)化算法只能獲得局部極值,性能與初始值相關(guān)
② 調(diào)參理論性缺乏
③ 不可解釋,與實際任務關(guān)聯(lián)性模糊
(1)原理:由手工設計卷積核變成自動學習卷積核
(2)卷積(Convolutional layer): 輸入與卷積核相乘再累加 (內(nèi)積、加權(quán)疊加)
① 公式:
② 目的:提取輸入的不同特征,得到維度很大的 特征圖(feature map)
③ 卷積核:需要訓練的參數(shù)。一般為奇數(shù)維,有中心像素點,便于定位卷積核
④ 特點:局部感知、參數(shù)變少、權(quán)重共享、分層提取
(3)池化(Pooling Layer):用更高層的抽象表達來表示主要特征,又稱“降采樣”
① 分類: 最大 (出現(xiàn)與否)、平均(保留整體)、隨機(避免過擬合)
② 目的:降維,不需要訓練參數(shù),得到新的、維度較小的特征
(4)步長(stride):若假設輸入大小是n∗n,卷積核的大小是f∗f,步長是s,則最后的feature map的大小為o∗o,其中
(5)填充(zero-padding)
① Full模式:即從卷積核(fileter)和輸入剛相交開始做卷積,沒有元素的部分做補0操作。
② Valid模式:卷積核和輸入完全相交開始做卷積,這種模式不需要補0。
③ Same模式:當卷積核的中心C和輸入開始相交時做卷積。沒有元素的部分做補0操作。
(7)激活函數(shù):加入非線性特征
(8)全連接層(Fully-connected layer)
如果說卷積層、池化層和激活函數(shù)層等是將原始數(shù)據(jù)映射到隱層特征空間(決定計算速度),全連接層則起到將學到的“分布式特征表示”映射到樣本標記空間的作用(決定參數(shù)個數(shù))。
參考:
[1] 神經(jīng)網(wǎng)絡(入門最詳細)_ruthy的博客-CSDN博客_神經(jīng)網(wǎng)絡算法入門
[2] 神經(jīng)網(wǎng)絡(容易被忽視的基礎知識) - Evan的文章 - 知乎
[3] 人工神經(jīng)網(wǎng)絡——王的機器
[4] 如何簡單形象又有趣地講解神經(jīng)網(wǎng)絡是什么? - 舒小曼的回答 - 知乎
[5] 神經(jīng)網(wǎng)絡15分鐘入門!足夠通俗易懂了吧 - Mr.括號的文章 - 知乎
[6] 神經(jīng)網(wǎng)絡——最易懂最清晰的一篇文章_illikang的博客-CSDN博客_神經(jīng)網(wǎng)絡
[7] 直覺化深度學習教程——什么是前向傳播——CSDN
[8] “反向傳播算法”過程及公式推導(超直觀好懂的Backpropagation)_aift的專欄-CSDN
[9] 卷積、反卷積、池化、反池化——CSDN
[10] 浙大機器學習課程- bilibili.com
三、深度神經(jīng)網(wǎng)絡目前有哪些成功的應用
深度學習最成功的應用是在音視頻的識別上,幾乎所有的商用語音識別都是深度學習來完成的。其次深度學習應用最成功的領域就是圖像識別,目前識別準確率已經(jīng)超越人類。深度學習成了圖像識別的標配,以至于目前做圖像不懂深度學習都不好意思跟人打招呼。(這種狀態(tài)個人覺得是不好的)其中圖像識別中,應用最廣的是人臉識別。自然語言理解方面,深度學習也非?;钴S,主要是使用一種叫做LSTM的深度學習方法。深度學習已經(jīng)深入各個領域無人車,智能回答,智能翻譯,天氣預報,股票預測,人臉比對,聲紋比對,等其他許多有趣的應用,比如智能插畫,自動作詩,自動寫作文,等都可以通過深度學習來完成深度神經(jīng)網(wǎng)絡目前有哪些成功的應用
四、人工智能時代,神經(jīng)網(wǎng)絡的原理及使用方法 | 微課堂
人工智能時代已經(jīng)悄然來臨,在計算機技術(shù)高速發(fā)展的未來,機器是否能代替人腦?也許有些讀者會說,永遠不可能,因為人腦的思考包含感性邏輯。事實上,神經(jīng)網(wǎng)絡算法正是在模仿人腦的思考方式。想不想知道神經(jīng)網(wǎng)絡是如何“思考”的呢?下面我向大家簡單介紹一下神經(jīng)網(wǎng)絡的原理及使用方法。
所謂人工智能,就是讓機器具備人的思維和意識。人工智能主要有三個學派——行為主義、符號主義和連接主義。
行為主義是基于控制論,是在構(gòu)建感知動作的控制系統(tǒng)。理解行為主義有個很好的例子,就是讓機器人單腳站立,通過感知要摔倒的方向控制兩只手的動作,保持身體的平衡,這就構(gòu)建了一個感知動作控制系統(tǒng)。
符號主義是基于算數(shù)邏輯和表達式。求解問題時,先把問題描述為表達式,再求解表達式。如果你在求解某個問題時,可以用if case這樣的條件語句,和若干計算公式描述出來,這就使用了符號主義的方法,比如“專家系統(tǒng)”。符號主義可以認為是用公式描述的人工智能,它讓計算機具備了理性思維。但是人類不僅具備理性思維,還具備無法用公式描述的感性思維。比如,如果你看過這篇推送,下回再見到“符號主義”幾個字,你會覺得眼熟,會想到這是人工智能相關(guān)的知識,這是人的直覺,是感性的。
連接主義就是在模擬人的這種感性思維,是在仿造人腦內(nèi)的神經(jīng)元連接關(guān)系。這張圖給出了人腦中的一根神經(jīng)元,左側(cè)是神經(jīng)元的輸入,“軸突”部分是神經(jīng)元的輸出。人腦就是由860億個這樣的神經(jīng)元首尾相接組成的網(wǎng)絡。
神經(jīng)網(wǎng)絡可以讓計算機具備感性思維。我們首先理解一下基于連接主義的神經(jīng)網(wǎng)絡設計過程。這張圖給出了人類從出生到24個月神經(jīng)網(wǎng)絡的變化:
隨著我們的成長,大量的數(shù)據(jù)通過視覺、聽覺涌入大腦,使我們的神經(jīng)網(wǎng)絡連接,也就是這些神經(jīng)元連線上的權(quán)重發(fā)生了變化,有些線上的權(quán)重增強了,有些線上的權(quán)重減弱了。
我們要用計算機仿出這些神經(jīng)網(wǎng)絡連接關(guān)系,讓計算機具備感性思維。
首先需要準備數(shù)據(jù),數(shù)據(jù)量越大越好,以構(gòu)成特征和標簽對。如果想識別貓,就要有大量貓的圖片和這張圖片是貓的標簽構(gòu)成特征標簽對,然后搭建神經(jīng)網(wǎng)絡的網(wǎng)絡結(jié)構(gòu),再通過反向傳播優(yōu)化連接的權(quán)重,直到模型的識別準確率達到要求,得到最優(yōu)的連線權(quán)重,把這個模型保存起來。最后用保存的模型輸入從未見過的新數(shù)據(jù),它會通過前向傳播輸出概率值,概率值最大的一個就是分類和預測的結(jié)果。
我們舉個例子來感受一下神經(jīng)網(wǎng)絡的設計過程。鳶尾花可以分為三類:狗尾鳶尾、雜色鳶尾和佛吉尼亞鳶尾。我們拿出一張圖,需要讓計算機判斷這是哪類鳶尾花。人們通過經(jīng)驗總結(jié)出了規(guī)律:通過測量花的花萼長、花萼寬、花瓣長、花瓣寬分辨出鳶尾花的類別,比如花萼長>花萼寬,并且花瓣長/花瓣寬>2,則可以判定為這是第一種,雜色鳶尾??吹竭@里,也許有些讀者已經(jīng)想到用if、case這樣的條件語句來實現(xiàn)鳶尾花的分類。沒錯,條件語句根據(jù)這些信息可以判斷鳶尾花分類,這是一個非常典型的專家系統(tǒng),這個過程是理性計算。只要有了這些數(shù)據(jù),就可以通過條件判定公式計算出是哪類鳶尾花。但是我們發(fā)現(xiàn)鳶尾花的種植者在識別鳶尾花的時候并不需要這么理性的計算,因為他們見識了太多的鳶尾花,一看就知道是哪種,而且隨著經(jīng)驗的增加,識別的準確率會提高。這就是直覺,是感性思維,也是我們這篇文章想要和大家分享的神經(jīng)網(wǎng)絡方法。
這種神經(jīng)網(wǎng)絡設計過程首先需要采集大量的花萼長、花萼寬、花瓣長、花瓣寬,和它們所對應的是哪種鳶尾花?;ㄝ嚅L、花萼寬、花瓣長、花瓣寬叫做輸入特征,它們對應的分類叫做標簽。大量的輸入特征和標簽對構(gòu)建出數(shù)據(jù)集,再把這個數(shù)據(jù)集喂入搭建好的神經(jīng)網(wǎng)絡結(jié)構(gòu),網(wǎng)絡通過反向傳播優(yōu)化參數(shù),得到模型。當有新的、從未見過的輸入特征,送入神經(jīng)網(wǎng)絡時,神經(jīng)網(wǎng)絡會輸出識別的結(jié)果。
展望21世紀初,在近十年神經(jīng)網(wǎng)絡理論研究趨向的背景下,神經(jīng)網(wǎng)絡理論的主要前沿領域包括:
一、對智能和機器關(guān)系問題的認識進一步增長。
研究人類智力一直是科學發(fā)展中最有意義,也是空前困難的挑戰(zhàn)性問題。人腦是我們所知道的唯一智能系統(tǒng),具有感知識別、學習、聯(lián)想、記憶、推理等智能。我們通過不斷 探索 人類智能的本質(zhì)以及聯(lián)結(jié)機制,并用人工系統(tǒng)復現(xiàn)或部分復現(xiàn),制造各種智能機器,這樣可使人類有更多的時間和機會從事更為復雜、更富創(chuàng)造性的工作。
神經(jīng)網(wǎng)絡是由大量處理單元組成的非線性、自適應、自組織系統(tǒng),是在現(xiàn)代神經(jīng)科學研究成果的基礎上提出的,試圖模擬神經(jīng)網(wǎng)絡加工、記憶信息的方式,設計一種新的機器,使之具有人腦風格的信息處理能力。智能理論所面對的課題來自“環(huán)境——問題——目的”,有極大的誘惑力與壓力,它的發(fā)展方向?qū)⑹前鸦谶B接主義的神經(jīng)網(wǎng)絡理論、基于符號主義的人工智能專家系統(tǒng)理論和基于進化論的人工生命這三大研究領域,在共同追求的總目標下,自發(fā)而有機地結(jié)合起來。
二、神經(jīng)計算和進化計算的重大發(fā)展。
計算和算法是人類自古以來十分重視的研究領域,本世紀30年代,符號邏輯方面的研究非?;钴S。近年來,神經(jīng)計算和進化計算領域很活躍,有新的發(fā)展動向,在從系統(tǒng)層次向細胞層次轉(zhuǎn)化里,正在建立數(shù)學理論基礎。隨著人們不斷 探索 新的計算和算法,將推動計算理論向計算智能化方向發(fā)展,在21世紀人類將全面進入信息 社會 ,對信息的獲取、處理和傳輸問題,對網(wǎng)絡路由優(yōu)化問題,對數(shù)據(jù)安全和保密問題等等將有新的要求,這些將成為 社會 運行的首要任務。因此,神經(jīng)計算和進化計算與高速信息網(wǎng)絡理論聯(lián)系將更加密切,并在計算機網(wǎng)絡領域中發(fā)揮巨大的作用,例如大范圍計算機網(wǎng)絡的自組織功能實現(xiàn)就要進行進化計算。
人類的思維方式正在轉(zhuǎn)變,從線性思維轉(zhuǎn)到非線性思維神經(jīng)元,神經(jīng)網(wǎng)絡都有非線性、非局域性、非定常性、非凸性和混沌等特性。我們在計算智能的層次上研究非線性動力系統(tǒng)、混沌神經(jīng)網(wǎng)絡以及對神經(jīng)網(wǎng)絡的數(shù)理研究,進一步研究自適應性子波、非線性神經(jīng)場的興奮模式、神經(jīng)集團的宏觀力學等。因為,非線性問題的研究是神經(jīng)網(wǎng)絡理論發(fā)展的一個最大動力,也是它面臨的最大挑戰(zhàn)。
以上就是有關(guān)神經(jīng)網(wǎng)絡的相關(guān)內(nèi)容,希望能為讀者帶來幫助。
以上內(nèi)容由蘇州空天信息研究院謝雨宏提供。
以上就是關(guān)于圖神經(jīng)網(wǎng)絡有哪些用途相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
眾創(chuàng)空間入駐協(xié)議(眾創(chuàng)空間入駐協(xié)議書網(wǎng)盤)