2

Size: px
Start display at page:

Download "2"

Transcription

1 Hao Zhang

2 2

3 Softmax softmax / i

4 ii (conv) (pool) (relu) (fc) Softmax im2col

5 iii

6 iv

7 Chapter 1 (image classification), (categories)(,,,, ),, (label)., (object detection), (object segmentation). 1,,,,., 0 255, (semantic gap).,,,,,.,,,, (data-driven approach). (convolutional neuralnetwork, CNN), [28].,, [8], [22], [15], [36], [32], [5], [14]. : 2 1 (image recognition). 1

8 2 CHAPTER 1. ; 3 softmax ; 4 softmax ; 5 ; 6.

9 Chapter 2, ,., , R, G, B,, = 2, 359, 296, 0( ) 255( ).,.,.,, ,..,..,... 3

10 CHAPTER 2. 图像识别问题的挑战及数据驱动过程 4 图 2.1: 图像识别问题的挑战. 图像来源于 [7]. 背景融合. 目标可能会和背景混为一体, 使得它非常难以被认出. 类内变化. 相同类的不同个体之间可能会变的完全不同. 2.2 数据驱动过程 我们该怎样写出一个算法对图像进行分类呢? 和写出一个排序算法不 同, 我们不知道如果通过指定一系列识别规则的方法来识别图像中的目标并 且能应对上述的这些挑战. 回想我们人类能对图像内容进行有效的识别, 是 因为我们之前已经积累了许多经验, 通过对经验的利用, 从而对新情况做出 判断 [37]. 在计算机系统中, 经验通常是以数据的形式存在. 我们将提供给计算 机每个类别的许多实例 (examples), 它们组成了训练集 (training set), 利用 学习算法 (learning algorithms) 从训练集中产生分类器 (classifier) 或模型 (model). 在面对新情况时 (例如看到一张以前未出现的图像), 模型会提供相 应的判断. 这个过程, 叫做数据驱动过程.

11 Chapter 3 softmax,.. 3.1, m, K D = {( x (i), y (i) )} m i=1, (3.1) x (i) R n, i, (3.2) y (i) {0, 1, 2, 3,..., K 1}, i. (3.3), i. x (i) i. n, , n = = y (i) x (i). 3.2, h, (hypothesis), h( x) x, y, 3.1., h. 5

12 6 CHAPTER :. [25] , (hypothesis) h h( x; W, b) = W x + b, (3.4) W R K n, b R K. (3.5) W, b, W (weights), b (bias vector). W, b (ground truth), W, b.,, W, b K h( x; W, b) = W x + b (3.6) = w T 0 w T 1. x + b 0 b 1 w K 1 T b K 1. (3.7)

13 w 0 T x + b 0 w 1 T x + b 1 =. (3.8). w K 1 T x + b K 1 d W. w d T x + b d x d. w d T x, w d (prototype). x, x Softmax Softmax, s = h( x) = W x + b exp(s k) K 1 j=0 exp(s j) Pr(y = k x) = softmax. exp(s k ) K 1 j=0 exp(s [0, 1], k. (3.9) j) 3.3 h, x (i). y (i) ( ),. (loss function), W, b, W, b (maximum likelihood estimate) softmax. W, b = arg max L(W, b) (3.10) W, b = arg max p(d; W, b) (3.11) W, b

14 8 CHAPTER 3. = arg max W, b = arg max W, b = arg max W, b = arg max W, b = arg min W, b = arg min W, b = arg min W, b m p(y (i) x (i) ; W, b) i=1 log ( (iid)) (3.12) m p(y (i) x (i) ; W, b) (3.13) i=1 m log p(y (i) x (i) ; W, b) (3.14) i=1 m log i=1 m log i=1 1 m 1 m def 1 = arg min W, b m def = arg min W, b exp(s (i) y (i) ) K 1 j=0 exp(s(i) j ) ( s (i) = W x (i) + b) (3.15) m log i=1 ( m i=1 exp(s (i) y (i) ) K 1 j=0 exp(s(i) j ) (3.16) s (i) exp(s (i) y (i) ) K 1 j=0 exp(s(i) j ) (3.17) ) K 1 + log( exp(s (i) y (i) j )) (3.18) j=0 m err(w, b; x (i), y (i) ) (3.19) i=1, err(w, b; x (i), y (i) ) = log J(W, b). (3.20) exp(s (i) y (i) ) K 1 j=0 exp(s(i) j ) = s(i) +log( K 1 y (i) j=0 exp(s(i) j )) (hinge loss).,, err(w, b; x (i), y (i) ) err (i) softmax, (W, b) J(W, b) = 1 m m log i=1 exp(s (i) y (i) ) K 1 j=0 exp(s(i) j ) (3.21) (W, b). (W, b ), W b c, c > , (W, b),

15 (regularization)ω(w ). l 2 (norm)( l F ) Ω(W ) = W 2 F = K 1 n 1 W dj. (3.22) d=0 j=0 l 2, x, x. (generalization)., J(W, b) = 1 m = 1 m m log i=1 exp(s (i) y (i) ) K 1 j=0 exp(s(i) j ) + λ 2 W 2 F (3.23) m err (i) + λ 2 W 2 F. (3.24) i=1, λ,, (W, b),. W, b = arg min J(W, b). (3.25) W, b 3.4.1, J (W, b). (W, b), (W, b) J., (θ 0, θ 1 ), J (θ 0, θ 1 ), J(W + c 0 θ 0 + c 1 θ 1, b) (c 0, c 1 ), (W, b), b.,, 3.2. (W, b) (, J(W, b) )., (W, b),

16 10 CHAPTER :. [26]. (W, b) J(W, b). 3.2, J,. W b θ, θ K n + K.,. min J( θ). (3.26) θ, v = 1, J, η > 0. η, J : min J( θ + η v). (3.27) v =1 v = arg min J( θ + η v) (3.28) v =1 arg min J( θ) + η v T J( θ) (3.29) v =1 = arg min J( θ) + η v J( θ) cos v, J( θ) (3.30) v =1 = arg min J( θ) + η J( θ) cos v, J( θ) (3.31) v =1

17 = arg min cos v, J( θ) (3.32) v =1 = J( θ) J( θ). (3.33), v J( θ). η. η, η. η,. η = α J( θ). J( θ), J( θ) = 0. θ θ η J( θ) J( θ) = θ α J( θ) J( θ) J( θ) (3.34) (3.35) = θ α J( θ). (3.36) 3.36 (gradient descent, GD), α (learning rate). (W, b) W W α W J(W, b) = W α 1 m m W err (i) αλw, (3.37) i=1 b b α b J(W, b) = b α 1 m m b err (i). (3.38) i=1 3.37, 3.38 (W, b), W, b , 3.38,,, (batch gradient descent). m, ImageNet[3] m,. J J, W W α W err (i) αλw, (3.39) b b α b err (i). (3.40)

18 12 CHAPTER 3. (stochastic gradient descent, SGD). SGD GD.,, GD. SGD,,. SGD [21]., GD SGD, GD m, SGD 1. (mini-batch gradient descent), m, m (batches). SGD,,. 1 m,, m, softmax,. s (i) = W x (i) + b, i, (3.41) exp(s (i) ) err (i) y = log (i) K 1 j=0 exp(s(i) j ) (3.42) K 1 = s (i) + log( exp(s (i) y (i) j )). (3.43) err (i) s (i) j = s (i) j = err (i) = s (i) y (i) s (i)err (i) = K 1 log( j=0 j=0 exp(s (i) j )), j y(i) (3.44) exp(s (i) j ) K 1 k=0 exp(s(i) k ), (3.45) exp(s (i) y (i) ) K 1 k=0 exp(s(i) k ) 1. (3.46) exp( s (i) ) K 1 k=0 exp(s(i) k ) e y (i). (3.47)

19 e y (i) K, y (i) 1, 0. W err (i) = ( s (i)err (i) ) x (i)t, (3.48) b err (i) = s (i)err (i). (3.49) 3.37, 3.38 W, b., softmax 1. Algorithm 1 softmax init. W N(0, ), b = 0 0. for t = 1 to T // T. sample a batch of data {( x (i), y (i) )} m i=1 for i = 1 to m s (i) = h( x (i) ) = W x (i) + b exp(s (i) y (i) ) K 1 j=0 exp(s(i) exp( s (i) ) K 1 k=0 exp(s(i) k // W, b //. err (i) = log // j ) s (i)err (i) = e ) y (i) W err (i) = ( s (i)err (i) ) x (i)t // err (i). b err (i) = s (i)err (i) ) J = 1 m m i=1 err(i) + λ 2 W 2 F //. W J = 1 m m i=1 W err (i) + λw b J = 1 m m i=1 b err (i) W W α W J b b α b J //. 3.5,..

20 14 CHAPTER x, ŷ = arg max k h( x) k = arg max s k. (3.50) k x D test = {( x (i), y (i) )} m test i=1, (3.51) x (i), 3.50 ŷ (i). Acc = 1 m test 1{ŷ (i) = y (i) } (3.52) m test i=1. 1{ }, 1{true statement} = 1, (3.53) 1{false statement} = 0. (3.54), Acc = 1, Acc < 1.

21 Chapter 4 (multilayer feedforward nueral network), (multilayer perceptrons, MLP),..,, / softmax.,,..,,, , (feature engineering) (representation)ϕ( x) x, ϕ( x). 4.3, x, ( ),. 15

22 16 CHAPTER 4.,. ϕ( x),,,. SIFT HOG. SIFT[23], (, DoG) ( DoG, ),,. SIFT,, : SIFT. [23]. HOG[2],,, 4.2. SIFT,. ϕ( x),.,,,.

23 4.1. / : HOG. [2]. 4.3: ϕ ϕ( x). [19] ϕ x,. ϕ( x) VC (VC dimension), (overfitting). ϕ( ), (kernel engineering). (Gaussian kernel)k( x, x ) = exp( γ x x 2 ),, (learning from data).,

24 18 CHAPTER 4.?,,,, AI. (representation learning). (autoencoder)[1], , ϕ. (deep learning),,. 4.4,. ϕ( x) = ϕ 3 (ϕ 2 (ϕ 1 ( x))) (4.1) : ϕ 1 :. ϕ 2 :. ϕ 3 :.. (connectionism).,.,,, 4.5,., ,, h( x) = W x + b (4.2)

25 :. [9]. x ϕ( x). h( x) = W ϕ( x) + b. (4.3) ϕ( x) L 1 ϕ( x) = ϕ L 1 (ϕ L 2 (... ϕ 2 (ϕ 1 ( x)))). (4.4) ϕ l ( a). (affine) z = W (l) a + b (l), l = 1, 2,..., L 1. (4.5) W (l), b (l). (activation function) ϕ l ( a) = max(0, z), l = 1, 2,..., L 1. (4.6) max(0, s) = 1{s > 0}s (4.7)

26 20 CHAPTER :,,. [9]. (rectified linear units, ReLU, relu). s 0 0, 4.6. z..,, h( x) x. relu,, sigmoid

27 , σ(s) = exp( s), (4.8) 4.7. sigmoid relu, relu[18], LSTM[12],. 4.6: ReLU. [11]. 4.7: Sigmoid. [25]. a (0) = x. (4.9) a (l) = max(0, W (l) a (l 1) + b (l) ), l = 1, 2,..., L 1, (4.10) h( x) = W (L) a (L 1) + b (L). (4.11) W (L), b (L) 4.3 W, b. a (L 1) ϕ( x).,.

28 22 CHAPTER , 4.8. (neuron) (dendrites), (nucleus), (axon)., (synapses). 4.8.,,,. x, w, n 1 z = w T x + b = w j x j + b, (4.12) j=0 a = max(0, z) = max(0, w T x + b). (4.13) 4.8:. [7]. n,,,, a k = max(0, z k ) = max(0, w d T x) + b d, d = 0, 1, 2,..., n 1. (4.14) a = a 0 a 1. a n 1 (4.15)

29 max(0, z 0 ) max(0, z 1 ) =. max(0, z n 1) max(0, w 0 T x + b 0 ) max(0, w 1 T x + b 1 ) =. max(0, w n T 1 x + b n 1) = max(0, w T 0 w T 1. x + b 0 b 1 w n T 1 b n 1. (4.16) (4.17) ) (4.18) = max(0, W x + b). (4.19) a (l) = max(0, W (l) a (l 1) + b (l) ), l = 1, 2,..., L 1, (4.20) h( x) = W (L) a (L 1) + b (L). (4.21) L., l ( a (l) ) l + 1,,,, (fullyconnected layer, fc)., L, 4.9. L,, , ( L ).

30 24 CHAPTER :. [7]. J(W, b) = 1 m = 1 m m log i=1 m err (i) + i=1 exp(s (i) y (i) ) K 1 j=0 exp(s(i) j ) + L l=1 L l=1 λ 2 W (l) 2 F (4.22) λ 2 W (l) 2 F. (4.23) s (i) = h( x (i) ). (4.24) h( x (i) ) ,, W (l) W (l) α W (l)j = W (l) α 1 m m W (l)err (i) αλw (l), l, (4.25) i=1 b (l) b (l) α b (l)j = b (l) α 1 m m b (l)err (i), l. (4.26) i=1

31 , W (l)err (i) b (l)err (i). s (i)err (i) = exp( s (i) ) K 1 k=0 exp(s(i) k ) e y (i), (4.27) s (i) = h( x (i) ) = W (L) a (L 1) + b (L). (4.28) W (L)err (i) b (L)err (i). W (L)err (i) = ( s (i)err (i) ) x (i)t, (4.29) b (L)err (i) = s (i)err (i). (4.30) W (l)err (i) b (l)err (i), l < L? W (l)err (i) b (l)err (i) l, a (l)err (i), z (l) = W (l) a (l 1) + b (l), (4.31) a (l) = max(0, z (l) ). (4.32) z (l)err (i) = ( a(l) z (l) )T a (l)err (i) (4.33) = 1{ z (l) > 0} a (l)err (i). (4.34), Hadamard (Hadamard product)., a (l 1)err (i) = ( z(l) a (l 1) )T z (l)err (i) (4.35) = W T z (l)err (i), (4.36) W (l)err (i) = ( z (l)err (i) ) a (l 1)T, (4.37) b (l)err (i) = z (l)err (i). (4.38) a (l)err (i), W (l)err (i), b (l)err (i), a (l 1)err (i). W (l)err (i) b (l)err (i) l. a (l 1)err (i) l 1,

32 26 CHAPTER 4. l 1., l = L,, 1,. (error back-propagation, BP),., , s (i) = h( x (i) ) 4.21.

33 Algorithm 2 for l = 1 to L // W, b 0. init. W (l) N(0, ), b (l) = 0 for t = 1 to T // T. sample a batch of data {( x (i), y (i) )} m i=1 for i = 1 to m a (0) = x (i) for l = 1 to L 1 z (l) = W (l) a (l 1) + b (l) a (l) = max(0, z (l) ) s (i) = h( x (i) ) = W (L) a (L 1) + b (L) exp(s (i) y (i) ) //. //. err (i) = log K 1 // k=0 exp(s(i) k ) s (i)err (i) exp( s = (i) ) e K 1 k=0 exp(s(i) k ) y (i) W (L)err (i) = ( s (i)err (i) ) x (i)t b (L)err (i) = s (i)err (i) a (L 1) = W (L)T s (i)err (i) for l = L 1 to 1 z (l)err (i) = 1{ z (l) > 0} a (l)err (i) W (l)err (i) = ( z (l)err (i) ) a (l 1)T b (l)err (i) = z (l)err (i) // err (i). a (l 1)err (i) = W T z (l)err (i) J = 1 m m i=1 err(i) + L λ l=1 W (l) 2 2 F //. for l = 1 to L W (l)j = 1 m m i=1 W (l)err(i) + λw (l) b (l)j = 1 m m i=1 b (l)err (i) W (l) W (l) α W (l)j b (l) b (l) α b (l)j //.

34 28 CHAPTER 4.

35 Chapter 5 (convolutional neural networks, CNN, ConvNets)., CNN,, BP. CNN, CNN, CNN. 5.1 CNN, CNN, CNN. 1,, CNN (tensor). D = {(X (i), y (i) )} m i=1, (5.1) X (i) R H W D, i, (5.2) y (i) {1, 2, 3,..., K}, i. (5.3), X (i) i, H W D. : W, ; D,. 1, CNN. (natural language processing, nlp), CNN [13]. 29

36 30 CHAPTER CNN,, (,, ). ( L ) 1 1 K,,, : ( ) CNN( ). [7]. ( +relu ), CNN 4 : (convolutional layer, conv), 2 (pooling layer, pool), (relu), (fc) (conv),. l, x R n l 1. 3 x : a = W x + b (5.4) = w T 0 w T 1. w T n l 1 x + b (5.5) 2. 3, x a (l 1).

37 w 0 T x + b 0 w 1 T x + b 1 =. (5.6). w n T l 1 x + b nl 1 n l w dl, b dl x, w d x. a dl = w T d l x + b dl = w dl x + b dl, d l. (5.7) x R n l 1 X RH l 1 W l 1 D l 1,, W d R H l 1 W l 1 D l 1. a dl = W dl X + b dl = H l 1 1 i=0 W l 1 1 j=0 D l 1 1 d=0 X(i, j, d)w dl (i, j, d) + b dl, d l. (5.8),, X(i, j, d) X (i, j, d).. CIFAR-10[17], , = 3072,., , = 120, 000.,,.,. (1).., a dl W dl (i, j, d) X(i, j, d).,,,,., a dl, 5.2. F 1 F 2 (receptive field),.,,, 5.3.

38 32 CHAPTER :.,. [9]. 5.3:. 32, 3. [7]. ( ),, (activation map), :. [6].

39 W dl F 1 F 2 D l 1, W dl,, D l D l. D l, A R H l W l D l, 5.5. D l W dl, W R H F 1 W F 2 D l 1 D l. 5.5:. [7]. (2)..,.,,.,.,., d l i l, j l d l (convolution), 4 W dl (filter) (kernel). A(i l, j l, d l ) = F 1 1 i=0 F 2 1 j=0 D l 1 1 d= , (cross-correlation). A dl = X W dl + b dl. (5.9) X(i l + i, j l + j, d)w(i, j, d, d l ) + b dl, i l, j l, d l. (5.10)

40 34 CHAPTER :. [9]. A H l W l D l : D l l ; H l W l : H l = H l 1 F 1 + 1, (5.11) W l = W l 1 F (5.12) : D l, F 1 F 2.. (stride)s,, S, 5.7., S. A(i l, j l, d l ) = F 1 1 i=0 F 2 1 j=0 D l 1 1 d=0 X(i l S+i, j l S+j, d)w(i, j, d, d l )+b dl, i l, j l, d l. (5.13)

41 :. 1, 2. [7]., 5.10 S = (zero-padding)p., 0, P 1, P 2. 0-,. 0-, A. S = 1, H l = H l 1 F 1 + 2P 1 S W l = W l 1 F 2 + 2P 2 S P 1 = F P 2 = F , (5.14) + 1. (5.15), (5.16). (5.17) H l = H l 1, (5.18) W l = W l 1. (5.19) (pool),,. pool, (max-pooling). A(i l, j l, d l ) = max X(i l S + i, j l S + j, d l ), i l, j l, d l. (5.20) 0 i<f 1,0 j<f 2 2 2, S = 2, max, 75%, 5.8.

42 36 CHAPTER :. [7] (relu) relu, relu,. A(i l, j l, d l ) = max(0, X(i l, j l, d l )), i l, j l, d l. (5.21) (fc),,. 5.3, s (i) = h(x (i) ) (5.22) h,, relu,. 5.4, BP.. relu,.

43 A(i l, j l, d l ) = F 1 1 i=0 F 2 1 j=0 D l 1 1 d=0 X(i l + i, j l + j, d)w(i, j, d, d l ) + b dl, i l, j l, d l. (5.23) A err (i), W err (i) b err (i), X err (i). err (i) Hl 1 W(i, j, d, d l ) = = err (i) b dl = = i l =0 H l 1 i l =0 H l 1 i l =0 H l 1 i l =0 err (i) Hl 1 X(i l + i, j l + j, d) = = i l =0 H l 1 i l =0 W l 1 j l =0 W l 1 j l =0 W l 1 j l =0 W l 1 j l =0 W l 1 j l =0 W l 1 j l =0 err (i) A(i l, j l, d l ) A(i l, j l, d l ) W(i, j, d, d l ) (5.24) err (i) A(i l, j l, d l ) X(i l + i, j l + j, d), i, j, d, (5.25) d l, err (i) A(i l, j l, d l ) (5.26) A(i l, j l, d l ) b dl err (i) A(i l, j l, d l ), d l, (5.27) err (i) A(i l, j l, d l ) A(i l, j l, d l ) X(i, j, d) (5.28) err (i) A(i l, j l, d l ) W(i, j, d, d l), i, j, d. (5.29),, ,, l l 1. max. z = max(x, y) = 1{x y}x + 1{y > x}y. (5.30) err(i), err(i) z x err(i) y, err (i) x = err(i) z z x (5.31)

44 38 CHAPTER 5. err (i) y = err(i) 1{x y}, (5.32) z = err(i) z z y (5.33) = err(i) 1{y > x}. (5.34) z, max. err(i) z,, 0. A(i l, j l, d l ) = max X(i l S + i, j l S + j, d l ), i l, j l, d l. (5.35) 0 i<f 1,0 j<f 2, F 1 F 2., l, l 1 0.,. 5.5 CNN,.

45 Chapter 6,,,, Softmax softmax f( s) k = exp(s k ) K 1 j=0 exp(s, k = 0, 1, 2,..., K 1 (6.1) j),, [9]. s j = c, j, f( s) k = : exp(s k ) K 1 j=0 exp(s j) = 1, k. (6.2) K (1). c. exp(c) 0., 0 0, (underflow). f( s) k = exp(c) = 0, (6.3) exp(c) K 1 j=0 exp(c) = 0, k. (6.4) 0 39

46 40 CHAPTER 6. (2). c. exp(c).,, (overflow). f( s) k = softmax f( s) k = = = = exp(c) =, (6.5) exp(c) K 1 j=0 exp(c) =, k. (6.6) exp(s k ) K 1 j=0 exp(s j) (6.7) exp(s k )c K 1 j=0 exp(s, c > 0 j)c (6.8) exp(s k + log c) K 1 j=0 exp(s j + log c) (6.9) exp(s k + c ) K 1 j=0 exp(s j + c ), c. (6.10) softmax,. c = max s l. (6.11) l s, 0,., 1, A(i l, j l, d l ) = F 1 1 i=0 F 2 1 j=0 D l 1 1 d=0 X(i l + i, j l + j, d)w(i, j, d, d l ) + b dl, i l, j l, d l. (6.12), 3 3 for, i l, j l, d l 3 for,, 1 for, 7 for. 7

47 for, 3 3 for, 4 for,., (Fourier transform), f g f g F(f g) = F(f) F(g). (6.13). A dl = X W dl + b dl, d l. (6.14), A dl = F 1 (F(X) F(W dl )) + b dl, d l. (6.15) (fast Fourier transform, FFT), O(N lg N) N, FFT 2. FFT, 3 3 [34]. FFT S > 1, im2col, im2col. :, X. F 1 F 2 D l 1, H l W l, X (H l W l ) (F 1 F 2 D l 1 ). X X [35]: (p, q) X, (i, j, d, d l ) W, (i l, j l, d l ) A, (i l 1, j l 1, d l 1 ) X, i l 1 = i l + i, (6.16)

48 42 CHAPTER 6. j l 1 = j l + j, (6.17) p = i l + H l j l, (6.18) q = i + F 1 j + F 1 F 2 d l 1. (6.19) p A (i l, j l ), q X d l 1 (i, j),. (i, j) (i l, j l ), X (i l 1, j l 1 ). W dl, W. F 1 F 2 D l 1, D l, W (F 1 F 2 D l 1 ) D l. X W, b. Ã = X W + 1 b T. (6.20) Ã (H l W l ) D l. Ã, A RH l W l D l. X, X X. im2col,.,, im2col. 6.3 θ θ α J( θ). (6.21),,., (hyperparameter)α, α., θ θ j. RMSprop[33], v j βv j + (1 β) ( J( θ) θ j ) 2, j, (6.22) θ j θ j α vj + ε J( θ) θ j, j. (6.23)

49 v, θ,. v., ;,. β β {0.9, 0.99, 0.999}. ε ε [10 8, 10 4 ], 0. RMSprop,, Momentum[27], Nesterov Momentum[24], Adagrad[4], Adam[16]. 6.4 (dropout)[30]. p, 0, 6.1.,., (ensemble). 6.1:.. [30]. 6.5,,. ˆX = 1 m X (i), (6.24) m i=1 X (i) X (i) ˆX, i. (6.25)

50 44 CHAPTER , 0, 0. 0,,,,,., 0 0, N(0, ). 6.7,,. [18] (data augmentation).,,., 5 (4 + ),.

51 [1] Yoshua Bengio. Learning deep architectures for ai. Foundations and trends in Machine Learning, 2(1):1 127, [2] Navneet Dalal and Bill Triggs. Histograms of oriented gradients for human detection. In Computer Vision and Pattern Recognition, CVPR IEEE Computer Society Conference on, volume 1, pages IEEE, [3] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei- Fei. Imagenet: A large-scale hierarchical image database. In Computer Vision and Pattern Recognition, CVPR IEEE Conference on, pages IEEE, [4] John Duchi, Elad Hazan, and Yoram Singer. Adaptive subgradient methods for online learning and stochastic optimization. The Journal of Machine Learning Research, 12: , [5] David Eigen, Christian Puhrsch, and Rob Fergus. Depth map prediction from a single image using a multi-scale deep network. In Advances in neural information processing systems, pages , [6] Andrew Ng et al. UFLDL tutorial. Stanford. [7] Li Fei-Fei, Andrej Karpathy, and Justin Johnson. CS231n: Convolutional neural networks for visual recognition. Stanford, [8] Ross Girshick, Jeff Donahue, Trevor Darrell, and Jitendra Malik. Rich feature hierarchies for accurate object detection and semantic segmen- 45

52 46 tation. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages , [9] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep learning. Book in preparation for MIT Press, [10] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. arxiv preprint arxiv: , [11] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Delving deep into rectifiers: Surpassing human-level performance on imagenet classification. In Proceedings of the IEEE International Conference on Computer Vision, pages , [12] Sepp Hochreiter and Jürgen Schmidhuber. Long short-term memory. Neural computation, 9(8): , [13] Nal Kalchbrenner, Edward Grefenstette, and Phil Blunsom. A convolutional neural network for modelling sentences. arxiv preprint arxiv: , [14] Andrej Karpathy and Li Fei-Fei. Deep visual-semantic alignments for generating image descriptions. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages , [15] Andrej Karpathy, George Toderici, Sanketh Shetty, Thomas Leung, Rahul Sukthankar, and Li Fei-Fei. Large-scale video classification with convolutional neural networks. In Proceedings of the IEEE conference on Computer Vision and Pattern Recognition, pages , [16] Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arxiv preprint arxiv: , [17] Alex Krizhevsky and Geoffrey Hinton. Learning multiple layers of features from tiny images, [18] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. Imagenet classification with deep convolutional neural networks. In Advances in neural information processing systems, pages , 2012.

53 47 [19] Yann LeCun, Yoshua Bengio, and Geoffrey Hinton. Deep learning. Nature, 521(7553): , [20] Yann LeCun, Léon Bottou, Yoshua Bengio, and Patrick Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11): , [21] Yann A LeCun, Léon Bottou, Genevieve B Orr, and Klaus-Robert Müller. Efficient backprop. In Neural networks: Tricks of the trade, pages Springer, [22] Jonathan Long, Evan Shelhamer, and Trevor Darrell. Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages , [23] David G Lowe. Object recognition from local scale-invariant features. In Computer vision, The proceedings of the seventh IEEE international conference on, volume 2, pages Ieee, [24] Yurii Nesterov. A method of solving a convex programming problem with convergence rate o (1/k2). In Soviet Mathematics Doklady, volume 27, pages , [25] Andrew Ng. CS229: Machine learning. Stanford. [26] Andrew Ng. Machine learning. Coursera. [27] Boris T Polyak. Some methods of speeding up the convergence of iteration methods. USSR Computational Mathematics and Mathematical Physics, 4(5):1 17, [28] Olga Russakovsky, Jia Deng, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla, Michael Bernstein, et al. Imagenet large scale visual recognition challenge. International Journal of Computer Vision, 115(3): , [29] Karen Simonyan and Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. arxiv preprint arxiv: , 2014.

54 48 [30] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. The Journal of Machine Learning Research, 15(1): , [31] Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich. Going deeper with convolutions. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 1 9, [32] Yaniv Taigman, Ming Yang, Marc Aurelio Ranzato, and Lior Wolf. Deepface: Closing the gap to human-level performance in face verification. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages , [33] Tijmen Tieleman and Geoffrey Hinton. Lecture 6.5-rmsprop: Divide the gradient by a running average of its recent magnitude. COURS- ERA: Neural Networks for Machine Learning, 4:2, [34] Nicolas Vasilache, Jeff Johnson, Michael Mathieu, Soumith Chintala, Serkan Piantino, and Yann LeCun. Fast convolutional nets with fbfft: A gpu performance evaluation. arxiv preprint arxiv: , [35] Jianxin Wu. CNN for dummies [36] Bolei Zhou, Agata Lapedriza, Jianxiong Xiao, Antonio Torralba, and Aude Oliva. Learning deep features for scene recognition using places database. In Advances in neural information processing systems, pages , [37].., 2016.

RPN 2 DeepParts 22 part pool 2 3 HOG 12 LBP 13 Harr - like 15 DPM 16 Deformable Parts Model VGG16 X. Wang 14 VGG Convolutiona

RPN 2 DeepParts 22 part pool 2 3 HOG 12 LBP 13 Harr - like 15 DPM 16 Deformable Parts Model VGG16 X. Wang 14 VGG Convolutiona 2017 22 2 CHINESE JOURNAL OF STEREOLOGY AND IMAGE ANALYSIS Vol. 22 No. 2 June 2017 209 1007-1482 2017 02-0209 -0215 DOI 10. 13505 /j. 1007-1482. 2017. 22. 02. 014 RPN 1 2 3 3 1 1 2 3 1. 100090 2. 100090

More information

untitled

untitled ISSN 1000-9825, CODEN RUXUEW E-mail: jos@iscas.ac.cn Journal of Software,2017,28(11):3018 3029 [doi: 10.13328/j.cnki.jos.005332] http://www.jos.org.cn. Tel: +86-10-62562563 1,2, 1,2 1 (, 100876) 2 ( (

More information

从零构建支持向量机(SVM)

从零构建支持向量机(SVM) (SVM) zhangh04@gail.co (SVM),,,,,,,,,,,,,,,,,,,,.,, {(x, y ), (x, y ),..., (x, y )}, x i R d, y {, }, h: R {, }, h(x i ) = y i, y i = ; h(x i ) = () y i =. i. y i h(x i ) =. (), x i, h(x i ) := sign(w

More information

Natural Neural Networks

Natural Neural Networks 深度学习讨论班 黄雷 2016-11-29 内容大纲 1. 深度学习介绍 神经网络的历史 深度学习的应用 2. 多层感知机 (multi-layer perceptron machine) 前向神经网络 (feedforward neural network) 3. 卷积神经网络 (Convolution neural networks) 4. 递归神经网络 (Recursive neural networks)

More information

<4D6963726F736F667420576F7264202D20C9CFBAA3BFC6BCBCB4F3D1A7D0C5CFA2D1A7D4BA32303136C4EAC7EFBCBEC8EBD1A7B2A9CABFD7CAB8F1BFBCCAD4CAB5CAA9CFB8D4F22D30343036C8B7B6A8B8E5>

<4D6963726F736F667420576F7264202D20C9CFBAA3BFC6BCBCB4F3D1A7D0C5CFA2D1A7D4BA32303136C4EAC7EFBCBEC8EBD1A7B2A9CABFD7CAB8F1BFBCCAD4CAB5CAA9CFB8D4F22D30343036C8B7B6A8B8E5> 上 海 科 技 大 学 信 息 科 学 与 技 术 学 院 年 度 博 士 资 格 考 试 实 施 细 则 一 总 则 本 细 则 由 上 海 科 技 大 学 信 息 科 学 与 技 术 学 院 ( 以 下 简 称 信 息 学 院 ) 教 学 指 导 委 员 会 讨 论 制 定, 适 用 于 信 息 学 院 2014 级 硕 士 研 究 生 的 年 度 博 士 资 格 考 试 信 息 学 院 2014

More information

第 2 期 王 向 东 等 : 一 种 运 动 轨 迹 引 导 下 的 举 重 视 频 关 键 姿 态 提 取 方 法 257 竞 技 体 育 比 赛 越 来 越 激 烈, 为 了 提 高 体 育 训 练 的 效 率, 有 必 要 在 体 育 训 练 中 引 入 科 学 定 量 的 方 法 许 多

第 2 期 王 向 东 等 : 一 种 运 动 轨 迹 引 导 下 的 举 重 视 频 关 键 姿 态 提 取 方 法 257 竞 技 体 育 比 赛 越 来 越 激 烈, 为 了 提 高 体 育 训 练 的 效 率, 有 必 要 在 体 育 训 练 中 引 入 科 学 定 量 的 方 法 许 多 2014 年 4 月 图 学 学 报 April 2014 第 35 卷 第 2 期 JOURNAL OF GRAPHICS Vol.35 No.2 一 种 运 动 轨 迹 引 导 下 的 举 重 视 频 关 键 姿 态 提 取 方 法 王 向 东 1, 张 静 文 2, 毋 立 芳 2, 徐 文 泉 (1. 国 家 体 育 总 局 体 育 科 学 研 究 所, 北 京 100061;2. 北 京

More information

國立中山大學學位論文典藏.PDF

國立中山大學學位論文典藏.PDF Air Visibility Forecasting via Artificial Neural Networks and Feature Selection Techniques 2003 7 Air Visibility Forecasting via Artificial Neural Networks and Feature Selection Techniques Sequential Floating

More information

08_toukei03.dvi

08_toukei03.dvi 2013 61 1 123 134 c 2013 2012 6 28 8 28 9 5 LDPC Low-Density Parity-Check LDPC MIMO 1. 2002 Feldman LP Feldman, 2003; Feldman et al., 2005 Feldman Vontobel and Koetter 2006 Koetter and Vontobel 2003 Burshtein

More information

MAXQ BA ( ) / 20

MAXQ BA ( ) / 20 MAXQ BA11011028 2016 6 7 () 2016 6 7 1 / 20 1 2 3 4 () 2016 6 7 2 / 20 RoboCup 2D 11 11 100ms/ 1: RoboCup 2D () 2016 6 7 3 / 20 2: () 2016 6 7 4 / 20 () 2016 6 7 5 / 20 Markov Decision Theory [Puterman,

More information

Journal of Northwestern Polytechnical University Apr. Vol No. 2 ICM ICM ICM ICM ICM ICM TP A

Journal of Northwestern Polytechnical University Apr. Vol No. 2 ICM ICM ICM ICM ICM ICM TP A 2012 4 30 2 Journal of Northwestern Polytechnical University Apr. Vol. 30 2012 No. 2 ICM 710072 ICM ICM ICM ICM ICM TP391. 41 A 1000-2758 2012 02-0201-05 6 2001 Kinser Johnson ICM intersecting cortical

More information

标题

标题 第 19 卷 摇 第 4 期 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 模 式 识 别 与 人 工 智 能 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 Vol. 19 摇 No. 4 摇 006 年 8 月 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 PR & AI 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 Aug 摇 摇

More information

untitled

untitled 100084 E-mail: ahz@mail.tsinghua.edu.cn (Look Up Table, LUT) Adaboost 300 Adaboost TP391 Real Time Facial Expression Classification WANG Yubo, AI Haizhou, WU Bo, HUANG Chang Computer Science and Technology

More information

884 42 nary pattern, LBP).,,.,,. Krizhevsky [1] ILSVRC-2012,, SIFT.,, Lopes [2],, Extended CohnKanade (CK+) [3].,,,, CK+ : 1), Wild,. 1.,. 1 Fig. 1 CK

884 42 nary pattern, LBP).,,.,,. Krizhevsky [1] ILSVRC-2012,, SIFT.,, Lopes [2],, Extended CohnKanade (CK+) [3].,,,, CK+ : 1), Wild,. 1.,. 1 Fig. 1 CK 42 6 Vol. 42, No. 6 2016 6 ACTA AUTOMATICA SINICA June, 2016 ROI-KNN 1 1 1, 2.,.,, (Region of interest, ROI) K (K-nearest neighbors, KNN), ROI-KNN,,,,. DOI,,,,,. ROI-KNN., 2016, 42(6): 883 891 10.16383/j.aas.2016.c150638

More information

Sep (SCI) 10. Jiann-Ming Wu, Annealing by two sets of interactive dynamics, IEEE Trans. on Systems Man and Cybernetics Part B-Cybernetics 34 (3)

Sep (SCI) 10. Jiann-Ming Wu, Annealing by two sets of interactive dynamics, IEEE Trans. on Systems Man and Cybernetics Part B-Cybernetics 34 (3) 03-863-3531 E-mail jmwu@mail.ndhu.edu.tw /(1990/06-1994/06) (1988/06-1990/06) (1984/09-1988/06) / (1997/8-) (1996/08-1997/07) () 1996 8 Wu, Jiann-Ming ( SCI EI SSCI TSSCI EconLit A&HCI ) 1. Pei-Hsun Hsu

More information

Welch & Bishop, [Kalman60] [Maybeck79] [Sorenson70] [Gelb74, Grewal93, Maybeck79, Lewis86, Brown92, Jacobs93] x R n x k = Ax k 1 + Bu k 1 + w

Welch & Bishop, [Kalman60] [Maybeck79] [Sorenson70] [Gelb74, Grewal93, Maybeck79, Lewis86, Brown92, Jacobs93] x R n x k = Ax k 1 + Bu k 1 + w Greg Welch 1 and Gary Bishop 2 TR 95-041 Department of Computer Science University of North Carolina at Chapel Hill 3 Chapel Hill, NC 27599-3175 : 2006 7 24 2007 1 8 1960 1 welch@cs.unc.edu, http://www.cs.unc.edu/

More information

Vol. 36 ( 2016 ) No. 6 J. of Math. (PRC) HS, (, ) :. HS,. HS. : ; HS ; ; Nesterov MR(2010) : 90C05; 65K05 : O221.1 : A : (2016)

Vol. 36 ( 2016 ) No. 6 J. of Math. (PRC) HS, (, ) :. HS,. HS. : ; HS ; ; Nesterov MR(2010) : 90C05; 65K05 : O221.1 : A : (2016) Vol. 36 ( 6 ) No. 6 J. of Math. (PRC) HS, (, 454) :. HS,. HS. : ; HS ; ; Nesterov MR() : 9C5; 65K5 : O. : A : 55-7797(6)6-9-8 ū R n, A R m n (m n), b R m, b = Aū. ū,,., ( ), l ū min u s.t. Au = b, (.)

More information

[1] [4] Chetverikov Lerch[8,12] LeaVis CAD Limas-Serafim[6,7] (multi-resolution pyramids) 2 n 2 n 2 2 (texture) (calf leather) (veins)

[1] [4] Chetverikov Lerch[8,12] LeaVis CAD Limas-Serafim[6,7] (multi-resolution pyramids) 2 n 2 n 2 2 (texture) (calf leather) (veins) 38 8 38th Annual Conference of CSQ & 8th NQMS MCP IE 120 1. [1] [4] 1 2 3 2. Chetverikov Lerch[8,12] LeaVis CAD Limas-Serafim[6,7] (multi-resolution pyramids) 2 n 2 n 2 2 (texture) (calf leather) (veins)

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 CSC 2523 Deep Learning in Computer Vision Winter 2016 Neural-based Image Question Answering Yunpeng Li Faculty of Information 2016.03.01 Question Answering Traditional Approaches Textual question answering

More information

报 告 1: 郑 斌 教 授, 美 国 俄 克 拉 荷 马 大 学 医 学 图 像 特 征 分 析 与 癌 症 风 险 评 估 方 法 摘 要 : 准 确 的 评 估 癌 症 近 期 发 病 风 险 和 预 后 或 者 治 疗 效 果 是 发 展 和 建 立 精 准 医 学 的 一 个 重 要 前

报 告 1: 郑 斌 教 授, 美 国 俄 克 拉 荷 马 大 学 医 学 图 像 特 征 分 析 与 癌 症 风 险 评 估 方 法 摘 要 : 准 确 的 评 估 癌 症 近 期 发 病 风 险 和 预 后 或 者 治 疗 效 果 是 发 展 和 建 立 精 准 医 学 的 一 个 重 要 前 东 北 大 学 中 荷 生 物 医 学 与 信 息 工 程 学 院 2016 年 度 生 物 医 学 与 信 息 工 程 论 坛 会 议 时 间 2016 年 6 月 8 日, 星 期 三,9:30 至 16:00 会 议 地 址 会 议 网 址 主 办 单 位 东 北 大 学 浑 南 校 区 沈 阳 市 浑 南 区 创 新 路 195 号 生 命 科 学 大 楼 B 座 619 报 告 厅 http://www.bmie.neu.edu.cn

More information

填 写 要 求 一 以 word 文 档 格 式 如 实 填 写 各 项 二 表 格 文 本 中 外 文 名 词 第 一 次 出 现 时, 要 写 清 全 称 和 缩 写, 再 次 出 现 时 可 以 使 用 缩 写 三 涉 密 内 容 不 填 写, 有 可 能 涉 密 和 不 宜 大 范 围 公

填 写 要 求 一 以 word 文 档 格 式 如 实 填 写 各 项 二 表 格 文 本 中 外 文 名 词 第 一 次 出 现 时, 要 写 清 全 称 和 缩 写, 再 次 出 现 时 可 以 使 用 缩 写 三 涉 密 内 容 不 填 写, 有 可 能 涉 密 和 不 宜 大 范 围 公 2013 年 度 上 海 高 校 市 级 精 品 课 程 申 报 表 ( 本 科 ) 学 校 名 称 东 华 大 学 课 程 名 称 计 算 机 系 统 与 网 络 技 术 课 程 类 型 理 论 课 ( 不 含 实 践 ) 理 论 课 ( 含 实 践 ) 实 验 ( 践 ) 课 所 属 一 级 学 科 名 称 所 属 二 级 学 科 名 称 课 程 负 责 人 申 报 日 期 工 科 计 算 机

More information

泰迪杯全国数据挖掘挑战赛 OCR (CNN) OCR() CNN % 92.1% 15% 90%. Viterbi. OCR..,,,,,

泰迪杯全国数据挖掘挑战赛  OCR (CNN) OCR() CNN % 92.1% 15% 90%. Viterbi. OCR..,,,,, 泰迪杯全国数据挖掘挑战赛 www.tipdm.org 第四届 泰迪杯 全国数据挖掘挑战赛 优 秀 作 品 作品名称 : 基于深度学习和语言模型的印刷文字 OCR 系统 荣获奖项 : 特等并获企业冠名奖 作品单位 : 华南师范大学 作品成员 : 苏剑林曾玉婷 泰迪杯全国数据挖掘挑战赛 www.tipdm.org OCR 2016 5 15 (CNN) OCR(). +.... CNN 140 99.7%

More information

2006產業管理創新研討會論文格式說明

2006產業管理創新研討會論文格式說明 粗 集 理 論 萃 取 影 響 國 小 數 學 學 習 成 就 因 素 鄭 景 俗 * 雲 林 科 技 大 學 資 訊 管 理 所 教 授 e-mail: chcheng@mis.yuntech.edu.tw 楊 欣 怡 雲 林 科 技 大 學 資 訊 管 理 所 研 究 生 e-mail: g9623233@yuntech.edu.tw 摘 要 本 研 究 主 要 目 的 在 利 用 粗 集 理

More information

附件4

附件4 附 件 2 2015 年 省 级 精 品 资 源 共 享 课 申 报 书 ( 本 科 ) 申 报 学 校 西 华 师 范 大 学 课 程 名 称 数 值 方 法 与 计 算 机 技 术 课 程 类 型 公 共 基 础 课 专 业 基 础 课 专 业 课 其 它 所 属 学 科 门 类 理 学 ( 数 学 ) 所 属 专 业 类 名 称 课 程 负 责 人 数 学 与 应 用 数 学 信 息 与 计

More information

[9] R Ã : (1) x 0 R A(x 0 ) = 1; (2) α [0 1] Ã α = {x A(x) α} = [A α A α ]. A(x) Ã. R R. Ã 1 m x m α x m α > 0; α A(x) = 1 x m m x m +

[9] R Ã : (1) x 0 R A(x 0 ) = 1; (2) α [0 1] Ã α = {x A(x) α} = [A α A α ]. A(x) Ã. R R. Ã 1 m x m α x m α > 0; α A(x) = 1 x m m x m + 2012 12 Chinese Journal of Applied Probability and Statistics Vol.28 No.6 Dec. 2012 ( 224002) Euclidean Lebesgue... :. : O212.2 O159. 1.. Zadeh [1 2]. Tanaa (1982) ; Diamond (1988) (FLS) FLS LS ; Savic

More information

數據分析 Big Data Analytics) ( 資科系 / 融系學碩班 ) 上課 綱 2019 年秋季班 上課期間 :2019/09/ /01/09 學資 科學系 jong at g.nccu.edu.tw 2019 年 數據分析 (Big Data Analytics

數據分析 Big Data Analytics) ( 資科系 / 融系學碩班 ) 上課 綱 2019 年秋季班 上課期間 :2019/09/ /01/09 學資 科學系 jong at g.nccu.edu.tw 2019 年 數據分析 (Big Data Analytics 數據分析 Big Data Analytics) ( 資科系 / 融系學碩班 ) 上課 綱 2019 年秋季班 上課期間 :2019/09/12-2020/01/09 學資 科學系 jong at g.nccu.edu.tw 2019 年 09 12 數據分析 (Big Data Analytics) 課 系 4 課 系 課 : 資 科學 數據分析 數據分析 融科 數據分析 課 學 上 課 數據分析

More information

Chinese Journal of Applied Probability and Statistics Vol.25 No.4 Aug (,, ;,, ) (,, ) 应用概率统计 版权所有, Zhang (2002). λ q(t)

Chinese Journal of Applied Probability and Statistics Vol.25 No.4 Aug (,, ;,, ) (,, ) 应用概率统计 版权所有, Zhang (2002). λ q(t) 2009 8 Chinese Journal of Applied Probability and Statistics Vol.25 No.4 Aug. 2009,, 541004;,, 100124),, 100190), Zhang 2002). λ qt), Kolmogorov-Smirov, Berk and Jones 1979). λ qt).,,, λ qt),. λ qt) 1,.

More information

一 课 程 负 责 人 情 况 姓 名 吴 翊 性 别 男 出 生 年 月 1948.08.28 1. 基 本 信 息 学 位 硕 士 职 称 教 授 职 务 所 在 院 系 理 学 院 数 学 与 系 统 科 学 系 电 话 13808485157 研 究 方 向 数 据 处 理 近 三 年 来

一 课 程 负 责 人 情 况 姓 名 吴 翊 性 别 男 出 生 年 月 1948.08.28 1. 基 本 信 息 学 位 硕 士 职 称 教 授 职 务 所 在 院 系 理 学 院 数 学 与 系 统 科 学 系 电 话 13808485157 研 究 方 向 数 据 处 理 近 三 年 来 湖 南 省 普 通 高 等 学 校 省 级 精 品 课 程 复 核 申 报 表 学 校 名 称 : 课 程 名 称 : 课 程 负 责 人 : 立 项 时 间 : 国 防 科 技 大 学 概 率 论 与 数 理 统 计 吴 翊 2009 年 课 程 网 站 地 址 :jpkc2009.nudt.edu.cn/gllysltj jpkc.nudt.edu.cn/gltj 湖 南 省 教 育 厅 制 二

More information

江苏省高等学校

江苏省高等学校 江 苏 省 高 等 学 校 实 验 教 学 与 实 践 教 育 中 心 立 项 申 报 表 ( 实 践 教 育 中 心 ) 学 校 名 称 : 南 京 邮 电 大 学 合 作 单 位 名 称 : 江 苏 省 广 播 电 视 总 台 ( 集 团 ) 电 视 传 媒 中 心 综 艺 频 道 实 践 教 育 中 心 名 称 : 数 字 媒 体 技 术 实 践 教 育 中 心 实 践 教 育 中 心 网 址

More information

Vol. 22 No. 2 JOURNAL OF HARBIN UNIVERSITY OF SCIENCE AND TECHNOLOGY Apr ,,,,, Apriori,,,,,,,,

Vol. 22 No. 2 JOURNAL OF HARBIN UNIVERSITY OF SCIENCE AND TECHNOLOGY Apr ,,,,, Apriori,,,,,,,, 22 2 2017 4 Vol. 22 No. 2 JOURNAL OF HARBIN UNIVERSITY OF SCIENCE AND TECHNOLOGY Apr. 2017 1 2 3 2 1. 150080 2. 150080 3. 150080,,,,, Apriori,,,,,,,, ; ; ; ; DOI: 10. 15938 /j. jhust. 2017. 02. 023 TN911.

More information

1 引言

1 引言 P P 第 40 卷 Vol.40 第 7 期 No.7 计 算 机 工 程 Computer Engineering 014 年 7 月 July 014 开 发 研 究 与 工 程 应 用 文 章 编 号 :1000-348(014)07-081-05 文 献 标 识 码 :A 中 图 分 类 号 :TP391.41 摘 基 于 图 像 识 别 的 震 象 云 地 震 预 测 方 法 谢 庭,

More information

<4D6963726F736F667420576F7264202D20A4E2B6D5BFEBC3D1C2B2B3F8BCBDA9F1A874B2CE2E646F63>

<4D6963726F736F667420576F7264202D20A4E2B6D5BFEBC3D1C2B2B3F8BCBDA9F1A874B2CE2E646F63> 致 理 技 術 學 院 資 訊 網 路 技 術 系 實 務 專 題 報 告 致 理 技 術 學 院 資 訊 網 路 技 術 系 實 務 專 題 報 告 手 勢 辨 識 簡 報 播 放 系 統 手 勢 辨 識 簡 報 播 放 系 統 指 導 教 師 : 高 楊 達 老 師 學 生 : 蔡 孟 純 (19634111) 邱 佩 盈 (19634118) 鄭 惠 馨 (19634125) 九 十 九 年

More information

y 1 = 槡 P 1 1h T 1 1f 1 s 1 + 槡 P 1 2g T 1 2 interference 2f 2 s y 2 = 槡 P 2 2h T 2 2f 2 s 2 + 槡 P 2 1g T 2 1 interference 1f 1 s + n n

y 1 = 槡 P 1 1h T 1 1f 1 s 1 + 槡 P 1 2g T 1 2 interference 2f 2 s y 2 = 槡 P 2 2h T 2 2f 2 s 2 + 槡 P 2 1g T 2 1 interference 1f 1 s + n n 37 1 Vol 37 No 1 2013 1 Journal of Jiangxi Normal UniversityNatural Science Jan 2013 1000-5862201301-0037-05 MISO 郭荣新, 袁继昌 361021 2 RVQ 2 MISO 3 TN 911 7 A 0 MIMO 2 MISO 3 MIMOnetwork MIMO 3GPP LTE-A 2

More information

2014 年 11 月 总 第 251 期 主 办 单 位 : 中 国 科 学 院 自 动 化 研 究 所 CONTENTS 中 国 科 学 院 自 动 化 研 究 所 所 刊 卷 首 语 赠 人 一 片 云 1 科 研 动 态 与 学 术 交 流 自 动 化 所 人 脸 识 别 技 术 在 首 届

2014 年 11 月 总 第 251 期 主 办 单 位 : 中 国 科 学 院 自 动 化 研 究 所 CONTENTS 中 国 科 学 院 自 动 化 研 究 所 所 刊 卷 首 语 赠 人 一 片 云 1 科 研 动 态 与 学 术 交 流 自 动 化 所 人 脸 识 别 技 术 在 首 届 卷 首 语 首 赠 人 一 片 云 世 间 人 情 多 讲 究 赠 人 以 物, 而 物 尽 必 然 情 非 我 赠 人 以 云, 君 行 千 里, 抬 头 便 见 白 云, 还 怕 断 了 友 情 不 成? 人 间 冷 暖 是 人 最 在 乎 的, 人 与 人 的 交 往 也 往 往 就 在 这 冷 暖 二 字 上 你 赠 物 于 他 并 不 能 心 暖, 而 赠 他 一 份 真 情 可 能 就

More information

6 : 835, RGBD.,.,,,,., (Mean shift) OpenCV.,.,,.. 1. Fig. 1 1 The framework of video object tracking.,,,.,.,,,,. 1.1,.,, : 1) (Mean shift),. [1],,, Bh

6 : 835, RGBD.,.,,,,., (Mean shift) OpenCV.,.,,.. 1. Fig. 1 1 The framework of video object tracking.,,,.,.,,,,. 1.1,.,, : 1) (Mean shift),. [1],,, Bh 42 6 Vol. 42, No. 6 2016 6 ACTA AUTOMATICA SINICA June, 2016 1 1 1,...,.. DOI,,,,,,.., 2016, 42(6): 834 847 10.16383/j.aas.2016.c150705 Advances on Application of Deep Learning for Video Object Tracking

More information

! # %& ( %! & & + %!, ( Α Α Α Α Χ Χ Α Χ Α Α Χ Α Α Α Α

! # %& ( %! & & + %!, ( Α Α Α Α Χ Χ Α Χ Α Α Χ Α Α Α Α Ε! # % & ( )%! & & + %!, (./ 0 1 & & 2. 3 &. 4/. %! / (! %2 % ( 5 4 5 ) 2! 6 2! 2 2. / & 7 2! % &. 3.! & (. 2 & & / 8 2. ( % 2 & 2.! 9. %./ 5 : ; 5. % & %2 2 & % 2!! /. . %! & % &? & 5 6!% 2.

More information

& &((. ) ( & ) 6 0 &6,: & ) ; ; < 7 ; = = ;# > <# > 7 # 0 7#? Α <7 7 < = ; <

& &((. ) ( & ) 6 0 &6,: & ) ; ; < 7 ; = = ;# > <# > 7 # 0 7#? Α <7 7 < = ; < ! # %& ( )! & +, &. / 0 # # 1 1 2 # 3 4!. &5 (& ) 6 0 0 2! +! +( &) 6 0 7 & 6 8. 9 6 &((. ) 6 4. 6 + ( & ) 6 0 &6,: & )6 0 3 7 ; ; < 7 ; = = ;# > 7 # 0 7#? Α

More information

深度学习经验分享

深度学习经验分享 CNN 近 期 进 展 与 实 用 技 巧 刘 昕 博 士 研 究 生 中 科 院 计 算 所 VIPL 研 究 组 vipl.ict.ac.cn Outline DL 基 础 理 论 CNN 结 构 演 化 CNN 实 用 技 巧 : 以 Caffe 为 例 CNN 实 战 :ICCV2015 年 龄 估 计 竞 赛 前 沿 话 题 讨 论 2 Outline DL 基 础 理 论 CNN 结 构

More information

& & ) ( +( #, # &,! # +., ) # % # # % ( #

& & ) ( +( #, # &,! # +., ) # % # # % ( # ! # % & # (! & & ) ( +( #, # &,! # +., ) # % # # % ( # Ι! # % & ( ) & % / 0 ( # ( 1 2 & 3 # ) 123 #, # #!. + 4 5 6, 7 8 9 : 5 ; < = >?? Α Β Χ Δ : 5 > Ε Φ > Γ > Α Β #! Η % # (, # # #, & # % % %+ ( Ι # %

More information

(Pattern Recognition) 1 1. CCD

(Pattern Recognition) 1 1. CCD ********************************* ********************************* (Pattern Recognition) 1 1. CCD 2. 3. 4. 1 ABSTRACT KeywordsMachine Vision, Real Time Inspection, Image Processing The purpose of this

More information

54 48 6-7 word2vec 8-10 GloVe 11 Word2vec X king - X man X queen - X woman Recurrent Neural Network X shirt - X clothing X chair - X furniture 2 n-gra

54 48 6-7 word2vec 8-10 GloVe 11 Word2vec X king - X man X queen - X woman Recurrent Neural Network X shirt - X clothing X chair - X furniture 2 n-gra Journal of South China Normal University Natural Science Edition 2016 48 3 53-58 doi 106054 /jjscnun201605006 1 2* 2 3 2 1 510631 2 3 510225 Glove TP3911 A 1000-5463 2016 03-0053-06 Research on Academic

More information

Vol.39 No. 8 August 2017 Hyeonwoo Noh [4] boundng box PASCALV VOC PASCAL VOC Ctyscapes bt 8 bt 1 14 bt

Vol.39 No. 8 August 2017 Hyeonwoo Noh [4] boundng box PASCALV VOC PASCAL VOC Ctyscapes bt 8 bt 1 14 bt 39 8 Vol.39 No.8 2017 8 Infrared Technology August 2017 1,2,3 1,3 1,3 1. 2000832. 100049 3. 200083 4 1 TP391.41 A 1001-8891(2017)08-0728-06 Infrared Scene Understandng Algorthm Based on Deep Convolutonal

More information

: 29 : n ( ),,. T, T +,. y ij i =, 2,, n, j =, 2,, T, y ij y ij = β + jβ 2 + α i + ɛ ij i =, 2,, n, j =, 2,, T, (.) β, β 2,. jβ 2,. β, β 2, α i i, ɛ i

: 29 : n ( ),,. T, T +,. y ij i =, 2,, n, j =, 2,, T, y ij y ij = β + jβ 2 + α i + ɛ ij i =, 2,, n, j =, 2,, T, (.) β, β 2,. jβ 2,. β, β 2, α i i, ɛ i 2009 6 Chinese Journal of Applied Probability and Statistics Vol.25 No.3 Jun. 2009 (,, 20024;,, 54004).,,., P,. :,,. : O22... (Credibility Theory) 20 20, 80. ( []).,.,,,.,,,,.,. Buhlmann Buhlmann-Straub

More information

北 京 大 学

北 京 大 学 北 京 大 学 硕 士 研 究 生 培 养 方 案 ( 信 息 工 程 学 院 报 表 修 订 版 本 ) 一 级 学 科 名 称 专 业 名 称 计 算 机 科 学 与 技 术 计 算 机 应 用 技 术 专 业 代 码 081203 北 京 大 学 研 究 生 院 制 表 填 表 日 期 :2012 年 06 月 16 日 一 学 科 ( 专 业 ) 主 要 研 究 方 向 序 研 究 方 向

More information

% %! # % & ( ) % # + # # % # # & & % ( #,. %

% %! # % & ( ) % # + # # % # # & & % ( #,. % !!! # #! # % & % %! # % & ( ) % # + # # % # # & & % ( #,. % , ( /0 ) %, + ( 1 ( 2 ) + %, ( 3, ( 123 % & # %, &% % #, % ( ) + & &% & ( & 4 ( & # 4 % #, #, ( ) + % 4 % & &, & & # / / % %, &% ! # #! # # #

More information

: ; # 7 ( 8 7

: ; # 7 ( 8 7 (! # % & ( ) +,. / +. 0 0 ) 1. 2 3 +4 1/,5,6 )/ ) 7 7 8 9 : ; 7 8 7 # 7 ( 8 7 ; ;! #! % & % ( # ) % + # # #, # % + &! #!. #! # # / 0 ( / / 0! #,. # 0(! #,. # 0!. # 0 0 7 7 < = # ; & % ) (, ) ) ) ) ) )!

More information

17

17 17 應 用 案 例 式 推 理 建 立 顧 客 關 係 管 理 之 行 銷 決 策 系 統 張 百 棧 * 王 彥 文 劉 鎮 豪 元 智 大 學 工 業 工 程 與 管 理 研 究 所 桃 園 縣 中 壢 市 遠 東 路 135 號 03-463-8800#287 iepchang@saturn.yzu.edu.tw 摘 要 近 年 來, 資 料 庫 行 銷 蓬 勃 發 展, 讓 許 多 企 業

More information

然 而 打 开 目 前 市 场 上 流 行 的 任 意 一 款 智 能 输 入 法, 上 面 提 到 的 词 都 会 被 轻 轻 松 松 的 输 出 来 ; 不 仅 如 此, 所 有 的 智 能 输 入 法 都 支 持 用 户 短 句 级 别 以 及 句 子 级 别 的 输 入 方 法, 并 且 能

然 而 打 开 目 前 市 场 上 流 行 的 任 意 一 款 智 能 输 入 法, 上 面 提 到 的 词 都 会 被 轻 轻 松 松 的 输 出 来 ; 不 仅 如 此, 所 有 的 智 能 输 入 法 都 支 持 用 户 短 句 级 别 以 及 句 子 级 别 的 输 入 方 法, 并 且 能 自 然 语 言 处 理 让 输 入 法 变 得 更 聪 明 王 砚 峰 贾 剑 峰 张 扬 1. 引 言 随 着 电 脑 的 普 及 和 互 联 网 的 发 展, 输 入 法 已 经 成 为 了 人 们 生 活 和 工 作 中 最 不 可 或 缺 的 工 具 软 件, 人 们 在 网 上 聊 天 中 的 对 话 交 流, 以 及 工 作 中 的 电 子 邮 件 和 文 档 报 告, 都 是 通 过

More information

****************************************************** Fundamentals of TV Tracking ****************************************************** ( ),,, :,,,,,, 1998 9 ( ISBN 7-118-01911-9),,, 1999 5 20 Email:

More information

2 209 Softmax Python TensorFlow drop- out 2 Fig.2 Remotesensingimageclassificationflowchart 1 1 ;2 ;3 ; ( ) 3 (3) 1 (4) Fig.1 Remotesensing

2 209 Softmax Python TensorFlow drop- out 2 Fig.2 Remotesensingimageclassificationflowchart 1 1 ;2 ;3 ; ( ) 3 (3) 1 (4) Fig.1 Remotesensing 37 2 2018 3 GeologicalScienceandTechnologyInformation Vol.37 No.2 Mar. 2018 doi10.19509/.cnki.dzkq.2018.0228. [J]. 201837(2)208-214. 1 2 3 (1. 710065;2. 430223; 3. ( ) 430074) Python TensorFlow Dropout

More information

第一章 緒論

第一章 緒論 中 華 大 學 碩 士 論 文 題 目 : 類 神 經 網 路 與 一 般 克 利 金 法 在 空 間 內 插 之 比 較 Comparison of Artificial Neural Networks and Ordinary Kriging Method in Spatial Interpolation 系 所 別 : 土 木 工 程 學 系 碩 士 班 學 號 姓 名 :M0904044 薛

More information

[1] Liu Hongwei,2013, Study on Comprehensive Evaluation of Iron and Steel Enterprises Production System s Basic Capacities, International Asia Confere

[1] Liu Hongwei,2013, Study on Comprehensive Evaluation of Iron and Steel Enterprises Production System s Basic Capacities, International Asia Confere 刘 洪 伟 工 业 工 程 系 副 教 授 CV 下 载 办 公 电 话 : 电 子 邮 箱 :hw_liu999@tju.edu.cn 研 究 方 向 : 精 益 生 产 与 精 益 管 理 理 论 及 应 用 ; 工 业 工 程 与 信 息 技 术 集 成 管 理 ; 系 统 可 靠 性 理 论 与 方 法 ; 医 院 管 理 理 论 及 应 用 教 育 与 工 作 经 历 时 间 单 位 专

More information

1. 课 程 负 责 人 情 况 姓 名 蒋 效 宇 性 别 男 出 生 年 月 基 本 信 息 最 终 学 历 研 究 生 职 称 副 教 授 电 话 学 位 博 士 职 务 无 传 真 研 究 方 向 MIS 系 统 整 合 电 子

1. 课 程 负 责 人 情 况 姓 名 蒋 效 宇 性 别 男 出 生 年 月 基 本 信 息 最 终 学 历 研 究 生 职 称 副 教 授 电 话 学 位 博 士 职 务 无 传 真 研 究 方 向 MIS 系 统 整 合 电 子 北 京 服 装 学 院 精 品 课 程 建 设 立 项 申 报 表 课 程 名 称 管 理 信 息 系 统 所 属 部 门 商 学 院 课 程 类 型 理 论 课 ( 不 含 实 践 ) 理 论 课 ( 含 实 践 ) 实 验 ( 践 ) 课 所 属 一 级 学 科 名 称 所 属 二 级 学 科 名 称 课 程 负 责 人 管 理 科 学 与 工 程 管 理 信 息 系 统 蒋 效 宇 申 报 日

More information

2/80 2

2/80 2 2/80 2 3/80 3 DSP2400 is a high performance Digital Signal Processor (DSP) designed and developed by author s laboratory. It is designed for multimedia and wireless application. To develop application

More information

* CUSUM EWMA PCA TS79 A DOI /j. issn X Incipient Fault Detection in Papermaking Wa

* CUSUM EWMA PCA TS79 A DOI /j. issn X Incipient Fault Detection in Papermaking Wa 2 *. 20037 2. 50640 CUSUM EWMA PCA TS79 A DOI 0. 980 /j. issn. 0254-508X. 207. 08. 004 Incipient Fault Detection in Papermaking Wastewater Treatment Processes WANG Ling-song MA Pu-fan YE Feng-ying XIONG

More information

《普通心理学》讲座提纲

《普通心理学》讲座提纲 ...7...7...7...7...7...7...7...8...8...8...8...8...8...8...9...9...9...9...10...10...10...10...10...11...11...11...11...11...11...11...11 nerve circuitry...12...12...12...12...12...13...13...13...13...14

More information

39 7 Vol. 39, No ACTA AUTOMATICA SINICA July, ,.,, (Adaptive detector, AD)., (Sample covariance matrix, SCM) (Normalized sample co

39 7 Vol. 39, No ACTA AUTOMATICA SINICA July, ,.,, (Adaptive detector, AD)., (Sample covariance matrix, SCM) (Normalized sample co 39 7 Vol. 39, No. 7 203 7 ACTA AUTOMATICA SINICA July, 203 2 2,.,, (Adaptive detector, AD)., (Sample covariance matrix, SCM) (Normalized sample covariance matrix, NSCM), AD-SCM AD-NSCM., AD-NSCM AD-SCM.,.

More information

K-means

K-means zwp@ustc.edu.cn Office: 1006 Phone: 63600565 http://staff.ustc.edu.cn/~zwp/ http://fisher.stat.ustc.edu.cn 1.1....................... 1 1.2............... 6 1.3.................... 11 1.3.1...............

More information

Vol. 15 No. 1 JOURNAL OF HARBIN UNIVERSITY OF SCIENCE AND TECHNOLOGY Feb O21 A

Vol. 15 No. 1 JOURNAL OF HARBIN UNIVERSITY OF SCIENCE AND TECHNOLOGY Feb O21 A 5 200 2 Vol 5 No JOURNAL OF HARBIN UNIVERSITY OF SCIENCE AND TECHNOLOGY Feb 200 2 2 50080 2 30024 O2 A 007-2683 200 0-0087- 05 A Goodness-of-fit Test Based on Empirical Likelihood and Application ZHOU

More information

θ 1 = φ n -n 2 2 n AR n φ i = 0 1 = a t - θ θ m a t-m 3 3 m MA m 1. 2 ρ k = R k /R 0 5 Akaike ρ k 1 AIC = n ln δ 2

θ 1 = φ n -n 2 2 n AR n φ i = 0 1 = a t - θ θ m a t-m 3 3 m MA m 1. 2 ρ k = R k /R 0 5 Akaike ρ k 1 AIC = n ln δ 2 35 2 2012 2 GEOMATICS & SPATIAL INFORMATION TECHNOLOGY Vol. 35 No. 2 Feb. 2012 1 2 3 4 1. 450008 2. 450005 3. 450008 4. 572000 20 J 101 20 ARMA TU196 B 1672-5867 2012 02-0213 - 04 Application of Time Series

More information

# # # #!! % &! # % 6 & () ) &+ & ( & +, () + 0. / & / &1 / &1, & ( ( & +. 4 / &1 5,

# # # #!! % &! # % 6 & () ) &+ & ( & +, () + 0. / & / &1 / &1, & ( ( & +. 4 / &1 5, # # # #!! % &! # % 6 & () ) &+ & ( & +, () + 0. / & / &1 / &1, & ( 0 2 3 ( & +. 4 / &1 5, !! & 6 7! 6! &1 + 51, (,1 ( 5& (5( (5 & &1 8. +5 &1 +,,( ! (! 6 9/: ;/:! % 7 3 &1 + ( & &, ( && ( )

More information

Microsoft Word - 100260.doc

Microsoft Word - 100260.doc 第 33 卷 第 期 电 子 与 信 息 学 报 Vol.33No. 20 年 月 Journal of Electronics & Information echnology Jan. 20 一 种 基 于 二 值 粒 子 群 优 化 和 支 持 向 量 机 的 目 标 检 测 算 法 潘 泓 * 李 晓 兵 金 立 左 夏 良 正 ( 东 南 大 学 自 动 化 学 院 南 京 20096) 摘

More information

双 语 教 学 之 中 综 上 所 述, 科 大 讯 飞 畅 言 交 互 式 多 媒 体 教 学 系 统, 围 绕 语 音 核 心 技 术 的 研 究 与 创 新, 取 得 了 一 系 列 自 主 产 权 并 达 到 国 际 领 先 水 平 的 技 术 成 果, 同 时 获 得 发 明 专 利 3

双 语 教 学 之 中 综 上 所 述, 科 大 讯 飞 畅 言 交 互 式 多 媒 体 教 学 系 统, 围 绕 语 音 核 心 技 术 的 研 究 与 创 新, 取 得 了 一 系 列 自 主 产 权 并 达 到 国 际 领 先 水 平 的 技 术 成 果, 同 时 获 得 发 明 专 利 3 博 士 后 制 度 实 施 30 周 年 成 果 展 科 大 讯 飞 股 份 有 限 公 司 二 博 士 后 科 研 成 就 胡 国 平 博 士 在 博 士 后 工 作 站 期 间 承 担 的 项 目 为 畅 言 交 互 式 多 媒 体 教 学 系 统 畅 言 交 互 式 多 媒 体 教 学 系 统 是 基 于 科 大 讯 飞 国 际 领 先 的 中 英 文 合 成 识 别 及 自 动 口 语 评

More information

2 3. 1,,,.,., CAD,,,. : 1) :, 1,,. ; 2) :,, ; 3) :,; 4) : Fig. 1 Flowchart of generation and application of 3D2digital2building 2 :.. 3 : 1) :,

2 3. 1,,,.,., CAD,,,. : 1) :, 1,,. ; 2) :,, ; 3) :,; 4) : Fig. 1 Flowchart of generation and application of 3D2digital2building 2 :.. 3 : 1) :, 3 1 Vol. 3. 1 2008 2 CAA I Transactions on Intelligent Systems Feb. 2008, (,210093) :.,; 3., 3. :; ; ; ; : TP391 :A :167324785 (2008) 0120001208 A system f or automatic generation of 3D building models

More information

34 www. cjig. cn wavelet transform 1 2 JPEG LIVE E s o = 1 T Σ log 2 C s o + 1 E T C s o Lu Wen contourlet C 0 7 N

34 www. cjig. cn wavelet transform 1 2 JPEG LIVE E s o = 1 T Σ log 2 C s o + 1 E T C s o Lu Wen contourlet C 0 7 N 17 1 2012 1 Journal of Image and Graphics Vol. 17No. 1 Jan. 2012 TP391. 4 A 1006-8961201201-0033-07. NSS J. 2012 171 33-39 NSS 214122 NSS No-reference image quality assessment based on natural scene statistics

More information

Microsoft Word - A201202-493_1329751213.doc

Microsoft Word - A201202-493_1329751213.doc 5 10 15 20 25 BP 神 经 网 络 在 中 国 创 业 板 企 业 成 长 性 预 测 研 究 ** 孙 静 稳, 刘 金 平 ( 中 国 矿 业 大 学 管 理 学 院, 江 苏 徐 州 221116) 摘 要 : 根 据 创 业 板 企 业 的 高 科 技 和 高 成 长 性 特 点, 成 为 金 融 证 券 市 场 热 门 关 注 的 对 象, 其 成 长 性 研 究 是 资 本

More information

Lecture 12: Policy Optimization II

Lecture 12: Policy Optimization II Lecture 12: Policy Optimization II Bolei Zhou The Chinese University of Hong Kong bzhou@ie.cuhk.edu.hk February 21, 2019 Bolei Zhou (CUHK) IERG6130 Reinforcement Learning February 21, 2019 1 / 21 Today

More information

!! # % & ( )!!! # + %!!! &!!, # ( + #. ) % )/ # & /.

!! # % & ( )!!! # + %!!! &!!, # ( + #. ) % )/ # & /. ! # !! # % & ( )!!! # + %!!! &!!, # ( + #. ) % )/ # & /. #! % & & ( ) # (!! /! / + ) & %,/ #! )!! / & # 0 %#,,. /! &! /!! ) 0+(,, # & % ) 1 # & /. / & %! # # #! & & # # #. ).! & #. #,!! 2 34 56 7 86 9

More information

39 10 : PWM Fig.1 Flow ChartofCrowd MonitoringApproachBasedonPWM (pixel)d r (mm) 2(b) Q r A D r (1) : D r = H/ cosθ = H/ cos rε f (1) ε CCD Q r

39 10 : PWM Fig.1 Flow ChartofCrowd MonitoringApproachBasedonPWM (pixel)d r (mm) 2(b) Q r A D r (1) : D r = H/ cosθ = H/ cos rε f (1) ε CCD Q r 39 10 2014 10 GeomaticsandInformationScienceofWuhanUniversity Vol.39No.10 Oct.2014 DOI:10.13203/j.whugis20130070 :1671-8860(2014)10-1236-05 1 2 1 1 430062 2 430072 : : ; ; P231.5 :A ROI : 1.2 [1-3] [4]

More information

untitled

untitled 4 y l y y y l,, (, ) ' ( ) ' ( ) y, y f ) ( () f f ( ) (l ) t l t lt l f ( t) f ( ) t l f ( ) d (l ) C f ( ) C, f ( ) (l ) L y dy yd π y L y cosθ, π θ : siθ, π yd dy L [ cosθ cosθ siθ siθ ] dθ π π π si

More information

IP TCP/IP PC OS µclinux MPEG4 Blackfin DSP MPEG4 IP UDP Winsock I/O DirectShow Filter DirectShow MPEG4 µclinux TCP/IP IP COM, DirectShow I

IP TCP/IP PC OS µclinux MPEG4 Blackfin DSP MPEG4 IP UDP Winsock I/O DirectShow Filter DirectShow MPEG4 µclinux TCP/IP IP COM, DirectShow I 2004 5 IP TCP/IP PC OS µclinux MPEG4 Blackfin DSP MPEG4 IP UDP Winsock I/O DirectShow Filter DirectShow MPEG4 µclinux TCP/IP IP COM, DirectShow I Abstract The techniques of digital video processing, transferring

More information

開 創 科 學 計 算 的 研 究 與 職 場 生 涯 13 候 模 型 與 預 測 天 文 以 及 數 位 內 容 產 業 等 等, 這 麼 多 與 我 們 生 活 息 息 相 關 的 產 業, 背 後 有 沒 有 任 何 的 共 通 點? 數 學, 又 在 這 些 產 業 中 扮 演 了 任 何

開 創 科 學 計 算 的 研 究 與 職 場 生 涯 13 候 模 型 與 預 測 天 文 以 及 數 位 內 容 產 業 等 等, 這 麼 多 與 我 們 生 活 息 息 相 關 的 產 業, 背 後 有 沒 有 任 何 的 共 通 點? 數 學, 又 在 這 些 產 業 中 扮 演 了 任 何 數 學 傳 播 38 卷 2 期, pp. 12-22 開 創 科 學 計 算 的 研 究 與 職 場 生 涯 演 講 者 : 王 偉 仲 教 授 時 間 : 民 國 101 年 12 月 18 日 地 點 : 臺 大 天 文 數 學 館 202 室 整 理 : 陳 麗 伍 介 紹 ( 臺 灣 大 學 數 學 系 王 振 男 教 授 ): 今 天 很 高 興 請 到 本 系 的 王 偉 仲 老 師,

More information

彩色地图中道路的识别和提取

彩色地图中道路的识别和提取 9310016, i ii Abstract This thesis is on the researching of recognizing the roads in map image by computer. Based on the theory of Pattern Recognition, there is a method to be discussed, which can recognize

More information

. OER Watson Watson Artificial Neural Networks ANN MP Rosenblatt BP IBM Deep Blue CNN RNN IBM Watson Thomas J. Watson Watson IBM 2014 CNN C

. OER Watson Watson Artificial Neural Networks ANN MP Rosenblatt BP IBM Deep Blue CNN RNN IBM Watson Thomas J. Watson Watson IBM 2014 CNN C 24 1 2018 2 Open Education Research Vol. 24 No. 1 Feb. 2018 1 2 1. 100875 2. 100875 G434 A 1007-2179 2018 01-0016-13 Hinton & Salakhutdinov 2006 1956 2011 Google Brain 2012 2015 ImageNet 2016 Alpha Go

More information

1 2 <CAHhX17dox1o7cv63SgXVrJRs

1 2  <CAHhX17dox1o7cv63SgXVrJRs ParaView 2019 1 21 1 1.1 ParaView [1] 2001-2018 ParaView Bug 2018 ParaView ParaView ParaView [5, 3] ParaView https://public.kitware.com/pipermail/paraview/ 1.2 URL URL Javascript document.queryselectall()

More information

并非没有必要的一些宏观思考

并非没有必要的一些宏观思考 第 一 章 引 论 第 一 章 引 论 1.1 课 题 的 提 出 1 本 课 题 的 研 究 工 作 是 尝 试 在 句 法 和 语 义 两 个 层 级 上 归 纳 现 代 汉 语 短 语 结 构 的 组 合 规 则, 解 决 计 算 机 分 析 现 代 汉 语 短 语 时 碰 到 的 结 构 歧 义 问 题 有 别 于 以 往 主 要 是 面 向 人 的 语 法 研 究, 本 课 题 的 研 究

More information

10384 19020101152519 UDC Rayleigh Quasi-Rayleigh Method for computing eigenvalues of symmetric tensors 2 0 1 3 2 0 1 3 2 0 1 3 2013 , 1. 2. [4], [27].,. [6] E- ; [7], Z-. [15]. Ramara G. kolda [1, 2],

More information

标题

标题 第 40 卷 第 7 期 2014 年 7 月 北 京 工 业 大 学 学 报 JOURNAL OF BEIJING UNIVERSITY OF TECHNOLOGY Vol. 40 No. 7 Jul. 2014 基 于 图 像 识 别 技 术 的 烟 包 封 条 缺 陷 检 测 赵 众, 常 灿, 陈 磊 ( 北 京 化 工 大 学 信 息 学 院, 北 京 100029) 摘 要 : 为 了

More information

soturon.dvi

soturon.dvi DP Contour Morphing 2005 3 A Graduation Thesis of College of Engineering, Chubu University Contour Morphing based on continuous DP matching Taichi Nomura 1 1 2 3 2.1 Flash Shape Tweening : : : : : : :

More information

,, [1 ], [223 ] :, 1) :, 2) :,,, 3) :,, ( ),, [ 6 ],,, [ 3,728 ], ; [9222 ], ;,,() ;, : (1) ; (2),,,,, [23224 ] ; 2,, x y,,, x y R, ( ),,, :

,, [1 ], [223 ] :, 1) :, 2) :,,, 3) :,, ( ),, [ 6 ],,, [ 3,728 ], ; [9222 ], ;,,() ;, : (1) ; (2),,,,, [23224 ] ; 2,, x y,,, x y R, ( ),,, : 24 3 2010 5 J OU RNAL OF CHIN ESE IN FORMA TION PROCESSIN G Vol. 24, No. 3 May, 2010 : 100320077 (2010) 0320117207 1, 1, 1, 2 (1.,100871 ; 2.,100084) :,,,,,,; : ( ) ( ) (,3 600 ),, ABC : ;; ; ; ;;; : TP391

More information

一般社団法人電子情報通信学会 信学技報 THE INSTITUTE OF ELECTRONICS, IEICE Technical Report INFORMATION THE INSTITUTE OF AND ELECTRONICS, COMMUNICATION ENGINEERS IEICE L

一般社団法人電子情報通信学会 信学技報 THE INSTITUTE OF ELECTRONICS, IEICE Technical Report INFORMATION THE INSTITUTE OF AND ELECTRONICS, COMMUNICATION ENGINEERS IEICE L 一般社団法人電子情報通信学会 信学技報 THE INSTITUTE OF ELECTRONICS, IEICE Technical Report INFORMATION THE INSTITUTE OF AND ELECTRONICS, COMMUNICATION ENGINEERS IEICE LOIS2016-85(2017-03) Technical Report INFORMATION AND

More information

<4D6963726F736F667420576F7264202D20C4A3B0E520D3A2D3EFBFDAD3EFBBFABFBCD6D0D3A2D3EFC8FBD2F4D3EFD2F4CAB6B1F0B5C4B8C4BDF8D0CDB7BDB7A8D1D0BEBF2E646F63>

<4D6963726F736F667420576F7264202D20C4A3B0E520D3A2D3EFBFDAD3EFBBFABFBCD6D0D3A2D3EFC8FBD2F4D3EFD2F4CAB6B1F0B5C4B8C4BDF8D0CDB7BDB7A8D1D0BEBF2E646F63> 英 语 口 语 机 考 中 英 语 塞 音 语 音 识 别 的 改 进 型 方 法 研 究 刘 健 刚 赵 力 ( 东 南 大 学 外 国 语 学 院, 江 苏 南 京 210096) ( 东 南 大 学 信 息 科 学 与 工 程 学 院, 江 苏 南 京 210096) 摘 要 : 文 章 通 过 论 证 英 语 口 语 机 考 中 英 语 塞 音 语 音 识 别 实 现 的 可 能 性 和 实

More information

untitled

untitled TFT-LCD Mura & Y.H. Tseng 2006.12.4 Outline Mura Mura Mura 類 度 Mura Mura JND Mura Convolution filter (Filter design) Statistical method (ANOVA,EWMA) Backgroup estimation (LSD) 2 What is Mura- Mura Mura

More information

2 137 [5]. [6].. [7]. [8-9].. (PCA) PCA HIS C1C2C3.. RGB Hotelling. [1-11]. R G B 3. RGB 1) RGB M N 3 x = [x R x G x B ] T. RGB 3 3 C x (1)

2 137 [5]. [6].. [7]. [8-9].. (PCA) PCA HIS C1C2C3.. RGB Hotelling. [1-11]. R G B 3. RGB 1) RGB M N 3 x = [x R x G x B ] T. RGB 3 3 C x (1) 28 2 21 3 JOURNAL OF APPLIED SCIENCES Electronics and Information Engineering Vol. 28 No. 2 Mar. 21 255-8297(21)2-136-6 4379. 1... TP751 P231.5 A Detection and Compensation of Shadows in High Resolution

More information

! # %! #! #! # % + &, % % ) %. /! # 0 1

! # %! #! #! # % + &, % % ) %. /! # 0 1 ! # %! #! #! # % + &, % % ) %. /! # 0 1 2 32 % 4! #! # 4 4 2 32 4 4! # 2 32 ! # % 2 5 2 32 % % 6 2 7 8 %! 6 # %3 3 9 % /, 9 % 2 % % 3 #7 9 % 2 8 7 2 % 3 7 7 7 8 7 7 7 7 3 9 8 8 % 3! # 7 12 1191 1 ; % %

More information

山东省招生委员会

山东省招生委员会 附 件 2: 2012 年 度 山 东 大 学 精 品 课 程 申 报 表 课 程 名 称 课 程 负 责 人 所 属 院 系 网 站 建 设 与 设 计 连 莉 副 教 授 计 算 机 学 院 课 程 类 型 理 论 课 ( 不 含 实 践 ) 理 论 课 ( 含 实 践 ) 实 践 ( 验 ) 课 所 属 专 业 大 类 所 属 专 业 类 理 工 电 子 信 息 科 学 类 联 系 电 话 13256167020

More information

Machine Learning for Computer Vision

Machine Learning for Computer Vision 基 于 MATLAB 的 计 算 机 视 觉 插 上 人 工 智 能 的 翅 膀 MathWorks China Application Engineer Tom Shan 2014 The MathWorks, Inc. 1 题 纲 基 于 MATLAB 的 人 工 智 能 设 计 流 程 介 绍 演 示 人 工 智 能 流 程 和 常 见 挑 战 针 对 实 时 视 频 进 行 目 标 检 测

More information

附3

附3 普 通 高 等 学 校 本 科 专 业 设 置 申 请 表 ( 备 案 专 业 适 用 ) 080910T 3-6 2 016 7 6 4884878 目 录 填 表 说 明 ⒈ ⒉ ⒊ ⒋ ⒌ 1. 普 通 高 等 学 校 增 设 本 科 专 业 基 本 情 况 表 080910T 3-6 1978 36 ( 1978) ( 2008) 2017 60 120 / S J ⒉ 学 校 基 本 情

More information

SVM OA 1 SVM MLP Tab 1 1 Drug feature data quantization table

SVM OA 1 SVM MLP Tab 1 1 Drug feature data quantization table 38 2 2010 4 Journal of Fuzhou University Natural Science Vol 38 No 2 Apr 2010 1000-2243 2010 02-0213 - 06 MLP SVM 1 1 2 1 350108 2 350108 MIP SVM OA MLP - SVM TP391 72 A Research of dialectical classification

More information

untitled

untitled 20 1 2010 10 Vol.20 Special 1 The Chinese Journal of Nonferrous Metals Oct. 2010 1004-0609(2010)S1-s0127-05 Ti-6Al-4V 1 2 2 (1. 710016 2., 710049) 500~1 000 20 Ti-6Al-4V(TC4) TC4 800 TC4 800 TC4 TC4 800

More information

Corporate Social Responsibility CSR CSR CSR 1 2 ~ CSR 6 CSR 7 CSR 8 CSR 9 10 ~ CSR 14 CSR CSR 2013 A A 23.

Corporate Social Responsibility CSR CSR CSR 1 2 ~ CSR 6 CSR 7 CSR 8 CSR 9 10 ~ CSR 14 CSR CSR 2013 A A 23. 24 3 Vol. 24 No. 3 2015 6 OPERATIONS RESEARCH AND MANAGEMENT SCIENCE Jun. 2015 1 2 2 1. 300071 2. 300071 Markowitz 10 F830. 59 A 1007-3221 2015 03-0275-13 Improvement of Portfolio Models Research An Empirical

More information

: 4 f(x, θ) = k i= w i φ(x, J i ), () : J i, w i. w i ( J i ) = 0, w i φ(x, J i ) = 0, J i (w i ), f(x, θ), J i ( w i )., J i = ±J j, w i φ(x, J i ) +

: 4 f(x, θ) = k i= w i φ(x, J i ), () : J i, w i. w i ( J i ) = 0, w i φ(x, J i ) = 0, J i (w i ), f(x, θ), J i ( w i )., J i = ±J j, w i φ(x, J i ) + 3 04 DOI: 0.764/CTA.04.30600 Control Theory & Applications Vol. 3 No. Feb. 04,,,, (., 0096;., 5059) : (MLPs),, MLPs. MLPs,. MLPs.,,., MLPs,,. : ; ; ; ; : TP73 : A Theoretical analysis of learning dynamics

More information

<4D6963726F736F667420576F7264202D20B8BDBCFE3220BDCCD3FDB2BFD6D8B5E3CAB5D1E9CAD2C4EAB6C8BFBCBACBB1A8B8E6A3A8C4A3B0E5A3A92E646F6378>

<4D6963726F736F667420576F7264202D20B8BDBCFE3220BDCCD3FDB2BFD6D8B5E3CAB5D1E9CAD2C4EAB6C8BFBCBACBB1A8B8E6A3A8C4A3B0E5A3A92E646F6378> 批 准 立 项 年 份 2007 通 过 验 收 年 份 2013 教 育 部 重 点 实 验 室 年 度 报 告 ( 2015 年 1 月 2015 年 12 月 ) 实 验 室 名 称 : 机 器 智 能 与 先 进 计 算 教 育 部 重 点 实 验 室 实 验 室 主 任 : 张 军 实 验 室 联 系 人 / 联 系 电 电 : 詹 志 辉 /13826089486 E-mail 地 址

More information

标题

标题 第 46 卷 第 11 期 2 1 4 年 11 月 哈 尔 滨 工 业 大 学 学 报 JOURNAL OF HARBIN INSTITUTE OF TECHNOLOGY Vol 46 No 11 Nov 214 基 于 摄 像 测 量 法 的 在 轨 柔 性 结 构 模 态 参 数 辨 识 许 畅 王 聪 高 晶 波 张 春 芳 ( 哈 尔 滨 工 业 大 学 航 天 学 院 151 哈 尔 滨

More information

) & ( +,! (# ) +. + / & 6!!!.! (!,! (! & 7 6!. 8 / ! (! & 0 6! (9 & 2 7 6!! 3 : ; 5 7 6! ) % (. ()

) & ( +,! (# ) +. + / & 6!!!.! (!,! (! & 7 6!. 8 / ! (! & 0 6! (9 & 2 7 6!! 3 : ; 5 7 6! ) % (. () ! # % & & &! # % &! ( &! # )! ) & ( +,! (# ) +. + / 0 1 2 3 4 4 5 & 6!!!.! (!,! (! & 7 6!. 8 / 6 7 6 8! (! & 0 6! (9 & 2 7 6!! 3 : ; 5 7 6! ) % (. () , 4 / 7!# + 6 7 1 1 1 0 7!.. 6 1 1 2 1 3

More information

PCA+LDA 14 1 PEN mL mL mL 16 DJX-AB DJ X AB DJ2 -YS % PEN

PCA+LDA 14 1 PEN mL mL mL 16 DJX-AB DJ X AB DJ2 -YS % PEN 21 11 2011 11 COMPUTER TECHNOLOGY AND DEVELOPMENT Vol. 21 No. 11 Nov. 2011 510006 PEN3 5 PCA + PCA+LDA 5 5 100% TP301 A 1673-629X 2011 11-0177-05 Application of Electronic Nose in Discrimination of Different

More information

微 分 方 程 是 经 典 数 学 的 一 个 重 要 分 支, 常 用 来 描 述 随 时 间 变 化 的 动 态 系 统, 被 广 泛 应 用 于 物 理 学 工 程 数 学 和 经 济 学 等 领 域. 实 际 上, 系 统 在 随 时 间 的 变 化 过 程 中, 经 常 会 受 到 一 些

微 分 方 程 是 经 典 数 学 的 一 个 重 要 分 支, 常 用 来 描 述 随 时 间 变 化 的 动 态 系 统, 被 广 泛 应 用 于 物 理 学 工 程 数 学 和 经 济 学 等 领 域. 实 际 上, 系 统 在 随 时 间 的 变 化 过 程 中, 经 常 会 受 到 一 些 不 确 定 微 分 方 程 研 究 综 述 李 圣 国, 彭 锦 华 中 师 范 大 学 数 统 学 院, 湖 北 4379 黄 冈 师 范 学 院 不 确 定 系 统 研 究 所, 湖 北 438 pengjin1@tsinghua.org.cn 摘 要 : 不 确 定 微 分 方 程 是 关 于 不 确 定 过 程 的 一 类 微 分 方 程, 其 解 也 是 不 确 定 过 程. 本 文 主

More information

458 (25),. [1 4], [5, 6].,, ( ).,,, ;,,,. Xie Li (28),,. [9] HJB,,,, Legendre [7, 8],.,. 2. ( ), x = x x = x x x2 n x = (x 1, x 2,..., x

458 (25),. [1 4], [5, 6].,, ( ).,,, ;,,,. Xie Li (28),,. [9] HJB,,,, Legendre [7, 8],.,. 2. ( ), x = x x = x x x2 n x = (x 1, x 2,..., x 212 1 Chinese Journal of Applied Probability and Statistics Vol.28 No.5 Oct. 212 (,, 3387;,, 372) (,, 372)., HJB,. HJB, Legendre.,. :,,, Legendre,,,. : F83.48, O211.6. 1.,.,,. 199, Sharpe Tint (199),.,

More information

Ζ # % & ( ) % + & ) / 0 0 1 0 2 3 ( ( # 4 & 5 & 4 2 2 ( 1 ) ). / 6 # ( 2 78 9 % + : ; ( ; < = % > ) / 4 % 1 & % 1 ) 8 (? Α >? Β? Χ Β Δ Ε ;> Φ Β >? = Β Χ? Α Γ Η 0 Γ > 0 0 Γ 0 Β Β Χ 5 Ι ϑ 0 Γ 1 ) & Ε 0 Α

More information

untitled

untitled 理 李 理 車 車 理論 來 車 車 來 理論 路 行 讀 不 數 數 來 練 (MultiLayer Perceptron:MLP) 練 (weight) 來 類神 路 離 練 (Off Line Training) 行 行 類神 路 行 行 類神 路 錄...1 錄...2 錄...3 論...4 1.1...4 1.2...4 1.3...5 1.3.1...5 1.3.2...6 類神 路...7

More information