@@ -75,6 +75,7 @@ def __init__(self, options):
75
75
"torch.ops.aten.argmin.default" : None ,
76
76
"torch.ops.aten.as_strided.default" : None ,
77
77
"torch.ops.aten.as_strided_.default" : None ,
78
+ "torch.ops.aten.as_strided_copy.default" : None ,
78
79
"torch.ops.aten.asin.default" : None ,
79
80
"torch.ops.aten.asinh.default" : None ,
80
81
"torch.ops.aten.asinh.default" : None ,
@@ -118,6 +119,7 @@ def __init__(self, options):
118
119
"torch.ops.aten.erf.default" : None ,
119
120
"torch.ops.aten.exp.default" : None ,
120
121
"torch.ops.aten.expand.default" : None ,
122
+ "torch.ops.aten.expand_copy.default" : None ,
121
123
"torch.ops.aten.fake_quantize_per_channel_affine_cachemask.default" : None ,
122
124
"torch.ops.aten.fill.Scalar" : None ,
123
125
"torch.ops.aten.fill_.Scalar" : None ,
@@ -196,6 +198,7 @@ def __init__(self, options):
196
198
"torch.ops.aten.new_zeros.default" : None ,
197
199
"torch.ops.aten.ones.default" : None ,
198
200
"torch.ops.aten.permute.default" : None ,
201
+ "torch.ops.aten.permute_copy.default" : None ,
199
202
"torch.ops.aten.pow.Scalar" : None ,
200
203
"torch.ops.aten.pow.Tensor_Scalar" : None ,
201
204
"torch.ops.aten.pow.Tensor_Tensor" : None ,
@@ -213,6 +216,7 @@ def __init__(self, options):
213
216
"torch.ops.aten.scatter.src" : None ,
214
217
"torch.ops.aten.scatter.value" : None ,
215
218
"torch.ops.aten.select.int" : None ,
219
+ "torch.ops.aten.select_copy.int" : None ,
216
220
"torch.ops.aten.select_scatter.default" : None ,
217
221
"torch.ops.aten.sigmoid.default" : None ,
218
222
"torch.ops.aten.sigmoid_.default" : None ,
@@ -222,13 +226,16 @@ def __init__(self, options):
222
226
"torch.ops.aten.sin.default" : None ,
223
227
"torch.ops.aten.sinh.default" : None ,
224
228
"torch.ops.aten.slice.Tensor" : None ,
229
+ "torch.ops.aten.slice_copy.Tensor" : None ,
225
230
"torch.ops.aten.slice_scatter.default" : None ,
226
231
"torch.ops.aten.sort.default" : None ,
227
232
"torch.ops.aten.split.Tensor" : None ,
228
233
"torch.ops.aten.split_with_sizes.default" : None ,
234
+ "torch.ops.aten.split_with_sizes_copy.default" : None ,
229
235
"torch.ops.aten.sqrt.default" : None ,
230
236
"torch.ops.aten.squeeze.dim" : None ,
231
237
"torch.ops.aten.squeeze.dims" : None ,
238
+ "torch.ops.aten.squeeze_copy.dims" : None ,
232
239
"torch.ops.aten.stack.default" : None ,
233
240
"torch.ops.aten.std.correction" : None ,
234
241
"torch.ops.aten.sub.default" : None ,
@@ -246,10 +253,12 @@ def __init__(self, options):
246
253
"torch.ops.aten.unbind.int" : None ,
247
254
"torch.ops.aten.unfold.default" : None ,
248
255
"torch.ops.aten.unsqueeze.default" : None ,
256
+ "torch.ops.aten.unsqueeze_copy.default" : None ,
249
257
"torch.ops.aten.upsample_nearest2d.default" : None ,
250
258
"torch.ops.aten.var.correction" : None ,
251
259
"torch.ops.aten.var_mean.correction" : None ,
252
260
"torch.ops.aten.view.default" : None ,
261
+ "torch.ops.aten.view_copy.default" : None ,
253
262
"torch.ops.aten.where.self" : None ,
254
263
"torch.ops.aten.zeros.default" : None ,
255
264
"torch.ops.aten.zeros_like.default" : None ,
0 commit comments