Test porta logica and

This commit is contained in:
Riccardo Forese 2026-02-02 17:55:44 +01:00
parent 1343b99e2b
commit 33941367e4

View file

@ -7,40 +7,63 @@ pub fn main() !void {
const allocator = gpa.allocator(); const allocator = gpa.allocator();
defer _ = gpa.deinit(); defer _ = gpa.deinit();
// 1. Inizializza Neurone // 1. Inizializziamo il neurone (2 input perché la porta AND ha 2 ingressi)
var my_neuron = try Neuron.init(allocator, 3); var my_neuron = try Neuron.init(allocator, 2);
defer my_neuron.deinit(); defer my_neuron.deinit();
// 2. Dati di Input // 2. Prepariamo il Dataset (AND Gate)
var inputs = try Tensor.init(allocator, &[_]usize{3}); // Creiamo un tensore riutilizzabile per gli input
defer inputs.deinit(); var input_tensor = try Tensor.init(allocator, &[_]usize{2});
inputs.data[0] = 1.0; defer input_tensor.deinit();
inputs.data[1] = 0.5;
inputs.data[2] = -2.0;
// 3. Il Target: Vogliamo che il neurone impari a rispondere "4.0" // I 4 casi possibili (Training Data)
const target: f32 = 4.0; const training_data = [_][2]f32{
.{ 0.0, 0.0 },
.{ 0.0, 1.0 },
.{ 1.0, 0.0 },
.{ 1.0, 1.0 },
};
// Learning Rate: La velocità di apprendimento ( troppo alta, troppo bassa) // Le 4 risposte corrette (Labels)
const lr: f32 = 0.01; const targets = [_]f32{ 0.0, 0.0, 0.0, 1.0 };
std.debug.print("--- INIZIO TRAINING ---\n", .{}); const lr: f32 = 0.1; // Learning rate un po' più aggressivo
std.debug.print("Target desiderato: {d:.2}\n", .{target});
// 4. Ciclo di Training (Epochs) std.debug.print("--- INIZIO TRAINING (AND GATE) ---\n", .{});
var i: usize = 0;
while (i < 100) : (i += 1) {
const loss = my_neuron.train(inputs, target, lr);
// Stampiamo lo stato ogni 10 passaggi // 3. Ciclo di Training
if (i % 10 == 0) { var epoch: usize = 0;
const current_pred = my_neuron.forward(inputs); while (epoch < 2000) : (epoch += 1) { // 2000 Epoche
std.debug.print("Epoca {d}: Loss = {d:.6} | Previsione attuale = {d:.4}\n", .{ i, loss, current_pred }); var total_error: f32 = 0.0;
// Per ogni epoca, passiamo attraverso TUTTI gli esempi
for (training_data, 0..) |data, index| {
// Carichiamo i dati nel tensore
input_tensor.data[0] = data[0];
input_tensor.data[1] = data[1];
// Train su questo specifico esempio
const loss = my_neuron.train(input_tensor, targets[index], lr);
total_error += loss;
}
// Stampiamo ogni 200 epoche
if (epoch % 200 == 0) {
std.debug.print("Epoca {d}: Errore Medio = {d:.6}\n", .{ epoch, total_error / 4.0 });
} }
} }
std.debug.print("\n--- TRAINING COMPLETATO ---\n", .{}); std.debug.print("\n--- TEST FINALE ---\n", .{});
std.debug.print("Pesi finali: {any}\n", .{my_neuron.weights.data});
std.debug.print("Bias finale: {d:.4}\n", .{my_neuron.bias}); // Verifichiamo cosa ha imparato
std.debug.print("Risultato finale: {d:.4}\n", .{my_neuron.forward(inputs)}); for (training_data) |data| {
input_tensor.data[0] = data[0];
input_tensor.data[1] = data[1];
const prediction = my_neuron.forward(input_tensor);
// Arrotondiamo visivamente per capire se è 0 o 1
const result_bool: u8 = if (prediction > 0.5) 1 else 0;
std.debug.print("Input: {d:.1}, {d:.1} -> Predizione: {d:.4} (Interpretato: {d})\n", .{ data[0], data[1], prediction, result_bool });
}
} }