提问者:小点点

hidden_layer=layers. Dense(100,激活="relu")(input_layer)做什么?[重复]


我在文本分类指南中看到了以下内容:

hidden_layer = layers.Dense(100, activation="relu")(input_layer)

(input_layer)是什么意思?

上下文是:

def create_model_architecture(input_size):

    # create input layer 
    input_layer = layers.Input((input_size, ), sparse=True)
    
    # create hidden layer
    hidden_layer = layers.Dense(100, activation="relu")(input_layer)
    
    # create output layer
    output_layer = layers.Dense(1, activation="sigmoid")(hidden_layer)

    classifier = models.Model(inputs = input_layer, outputs = output_layer)
    classifier.compile(optimizer=optimizers.Adam(), loss='binary_crossentropy')
    return classifier 

另外-这是顺序模型吗?


共1个答案

匿名用户

看输入层只不过是你想要输入多少个神经元或节点。假设我的数据集中有3个特征,那么我将在输入层有3个神经元。是的,它是顺序模型。