forked from pytorch/pytorch
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathTestFuser.test_lstm_concat_cuda.expect
49 lines (49 loc) · 2.27 KB
/
TestFuser.test_lstm_concat_cuda.expect
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
graph(%input : Float(*, *),
%input0 : Float(*, *),
%cx : Float(*, *),
%weight : Float(*, *),
%weight0 : Float(*, *),
%bias : Float(*),
%bias0 : Float(*)):
%7 : Float(*, *) = aten::t(%weight)
%8 : Float(*, *) = aten::mm(%input, %7)
%9 : Float(*, *) = aten::t(%weight0)
%10 : Float(*, *) = aten::mm(%input0, %9)
%11 : Tensor[] = prim::ListConstruct(%bias, %8, %bias0, %10)
%12 : Tensor[] = aten::broadcast_tensors(%11)
%13 : Tensor, %14 : Tensor, %15 : Tensor, %16 : Tensor = prim::ListUnpack(%12)
%17 : Float(*, *) = prim::FusionGroup_0(%cx, %16, %15, %14, %13)
return (%17)
with prim::FusionGroup_0 = graph(%0 : Float(*, *),
%1 : Tensor,
%2 : Tensor,
%3 : Tensor,
%4 : Tensor):
%5 : Float(*, *), %6 : Float(*, *), %7 : Float(*, *), %8 : Float(*, *) = prim::ConstantChunk[chunks=4, dim=1](%4)
%9 : Float(*, *), %10 : Float(*, *), %11 : Float(*, *), %12 : Float(*, *) = prim::ConstantChunk[chunks=4, dim=1](%3)
%13 : Float(*, *), %14 : Float(*, *), %15 : Float(*, *), %16 : Float(*, *) = prim::ConstantChunk[chunks=4, dim=1](%2)
%17 : Float(*, *), %18 : Float(*, *), %19 : Float(*, *), %20 : Float(*, *) = prim::ConstantChunk[chunks=4, dim=1](%1)
%21 : int = prim::Constant[value=1]()
%22 : Float(*, *) = aten::add(%13, %17, %21)
%23 : Float(*, *) = aten::add(%14, %18, %21)
%24 : Float(*, *) = aten::add(%15, %19, %21)
%25 : Float(*, *) = aten::add(%16, %20, %21)
%26 : Float(*, *) = aten::add(%5, %9, %21)
%27 : Float(*, *) = aten::add(%6, %10, %21)
%28 : Float(*, *) = aten::add(%7, %11, %21)
%29 : Float(*, *) = aten::add(%8, %12, %21)
%30 : Float(*, *) = aten::add(%26, %22, %21)
%31 : Float(*, *) = aten::add(%27, %23, %21)
%32 : Float(*, *) = aten::add(%28, %24, %21)
%33 : Float(*, *) = aten::add(%29, %25, %21)
%ingate0 : Float(*, *) = aten::sigmoid(%30)
%forgetgate0 : Float(*, *) = aten::sigmoid(%31)
%cellgate0 : Float(*, *) = aten::tanh(%32)
%outgate0 : Float(*, *) = aten::sigmoid(%33)
%38 : Float(*, *) = aten::mul(%forgetgate0, %0)
%39 : Float(*, *) = aten::mul(%ingate0, %cellgate0)
%cy : Float(*, *) = aten::add(%38, %39, %21)
%41 : Float(*, *) = aten::tanh(%cy)
%hy : Float(*, *) = aten::mul(%outgate0, %41)
%43 : Float(*, *) = prim::FusedConcat[dim=0](%hy, %cy)
return (%43)