سلام دوستان
می خوام در مدلم که در keras ایجاد شد ار تابع فعالیت relu استفاده کنم.
لایه رو از طریق زیر import کردم
from keras.layers import Conv2D, Input, Add, Dense, BatchNormalization, Convolution2D,\
Activation
img_input = Input(shape=(height, width, 3))
# block 1
x = Conv2D(filter_base, (kernel, kernel), padding="same", kernel_initializer='he_normal'
, name="block1_conv1")(img_input)
x = BatchNormalization()(x)
x = Activation('relu')(x)
در این قسمت یک لایه به نام activation هست که از طریق اون relu رو استفاده می کنم .
چیزی که می خوام این هست که در برخی جاها مثل اینجا یا اینجا یک متغیر alpha یا negative_slope هست که میشه در relu استفاده کرد اما من از طریق activation نمی دونم چطور بهشون دسترسی پیدا کنم. هدفم مقدار دادن به تابع relu از طریق activation هست یا این که بتونم از طریقی relu پیاده شده در جای دیگری رو در مدلم استفاده کنم.
با تشکر