> 技术文档 > AI算法实现解析-C++实例

AI算法实现解析-C++实例


基于C++实现的AI

以下是基于C++实现的AI/机器学习相关示例,涵盖基础算法、计算机视觉、自然语言处理等地方,适合不同阶段的学习者参考:

基础机器学习算法

  1. 线性回归
    使用梯度下降法预测连续值,核心公式:
    $y = wx + b$
    损失函数:
    $L = \\frac{1}{2m}\\sum_{i=1}^{m}(h(x^{(i)}) - y^{(i)})^2$

  2. 逻辑回归
    二分类问题实现,Sigmoid函数:
    $\\sigma(z) = \\frac{1}{1+e^{-z}}$

  3. K-Means聚类
    基于欧式距离的无监督聚类算法。

  4. 朴素贝叶斯分类器
    文本分类示例,计算条件概率:
    $P(y|x_1, x_2) = \\frac{P(x_1|y)P(x_2|y)P(y)}{P(x_1, x_2)}$

  5. 决策树ID3算法
    通过信息增益选择特征分支。

基于C++实现全连接神经网络(MLP)

以下是基于C++实现全连接神经网络(MLP)的示例场景和代码片段,涵盖基础实现、优化技巧和实际应用案例。所有示例均遵循现代C++标准(C++17/20),并使用Eigen库进行矩阵运算加速。

基础MLP实现

#include #include #include // 激活函数inline double sigmoid(double x) { return 1.0 / (1.0 + exp(-x));}// 网络结构定义class MLP {private: std::vector weights; std::vector biases;public: MLP(const std::vector& layers) { for (size_t i = 1; i < layers.size(); ++i) { weights.emplace_back(Eigen::MatrixXd::Random(layers[i], layers[i-1])); biases.emplace_back(Eigen::VectorXd::Zero(layers[i])); } } Eigen::VectorXd forward(const Eigen::VectorXd& input) { Eigen::VectorXd output = input; for (size_t i = 0; i < weights.size(); ++i) { output = (weights[i] * output + biases[i]).unaryExpr(&sigmoid); } return output; }};

反向传播实现

void MLP::backprop(const Eigen::VectorXd& input,  const Eigen::VectorXd& target,  double learning_rate) { // 前向传播缓存 std::vector activations; activations.push_back(input); Eigen::VectorXd output = input; for (const auto& w : weights) { output = (w * output).unaryExpr(&sigmoid); activations.push_back(output); } // 计算输出层误差 Eigen::VectorXd error = (activations.back() - target).cwiseProduct( activations.back().cwiseProduct(Eigen::VectorXd::Ones(output.size()) - activations.back()) ); // 反向传播 for (int i = weights.size() - 1; i >= 0; --i) { Eigen::MatrixXd delta = error * activations[i].transpose(); weights[i] -= learning_rate * delta; biases[i] -= learning_rate * error; if (i > 0) { error = (weights[i].transpose() * error).cwiseProduct( activations[i].cwiseProduct(Eigen::VectorXd::Ones(activations[i].size()) - activations[i]) ); } }}

应用场景示例

数字识别
MLP mnist_model({784, 128, 64, 10}); // MNIST输入为28x28=784
房价预测
MLP housing_model({13, 32, 16, 1}); // Boston Housing数据集
XOR问题
MLP xor_model({2, 4, 1}); // 经典非线性问题
时间序列预测
MLP lstm_alternative({10, 64, 32, 1}); // 替代LSTM的简化方案
其他应用
// 5. 手写公式识别// 6. 股票价格预测 // 7. 语音特征分类// 8. 医疗诊断系统// 9. 自动驾驶感知层// 10. 推荐系统// ... (其他20个场景)

性能优化技巧

批量处理
Eigen::MatrixXd batch_forward(const Eigen::MatrixXd& inputs) { Eigen::MatrixXd outputs = inputs; for (const auto& w : weights) { outputs = (w * outputs).colwise() + biases[&w - &weights[0]]; outputs = outputs.unaryExpr(&sigmoid); } return outputs;}
GPU加速(使用CUDA)
// 需配合cuBLAS或自定义kernel实现矩阵运算

完整训练流程示例

void train(MLP& model,  const std::vector& inputs, const std::vector& targets, int epochs) { for (int epoch = 0; epoch < epochs; ++epoch) { double total_loss = 0; for (size_t i = 0; i < inputs.size(); ++i) { model.backprop(inputs[i], targets[i], 0.01); total_loss += (model.forward(inputs[i]) - targets[i]).squaredNorm(); } std::cout << \"Epoch \" << epoch << \" Loss: \" << total_loss << std::endl; }}

卷积神经网络(CNN)

以下是一些关于卷积神经网络(CNN)的C++实现示例及其相关资源,涵盖从基础到进阶的应用场景。这些例子可以帮助理解CNN的核心概念和实际编码实现。

基础CNN实现示例

  1. 简单卷积层实现
    使用C++实现基础的二维卷积操作,包含输入矩阵和卷积核的乘法与累加运算。

    void conv2d(float* input, float* kernel, float* output, int in_h, int in_w, int k_h, int k_w) { for (int i = 0; i <= in_h - k_h; ++i) { for (int j = 0; j <= in_w - k_w; ++j) { float sum = 0.0f; for (int m = 0; m < k_h; ++m) { for (int n = 0; n < k_w; ++n) {  sum += input[(i + m) * in_w + (j + n)] * kernel[m * k_w + n]; } } output[i * (in_w - k_w + 1) + j] = sum; } }}
  2. ReLU激活函数
    实现逐元素的ReLU非线性激活函数。

    void relu(float* data, int size) { for (int i = 0; i < size; ++i) { data[i] = std::max(0.0f, data[i]); }}
  3. 最大池化层
    对输入特征图进行下采样,提取主要特征。

    void max_pooling(float* input, float* output, int in_h, int in_w, int pool_size) { int out_h = in_h / pool_size; int out_w = in_w / pool_size; for (int i = 0; i < out_h; ++i) { for (int j = 0; j < out_w; ++j) { float max_val = -FLT_MAX; for (int m = 0; m < pool_size; ++m) { for (int n = 0; n < pool_size; ++n) {  max_val = std::max(max_val, input[(i * pool_size + m) * in_w + (j * pool_size + n)]); } } output[i * out_w + j] = max_val; } }}

进阶CNN库与框架示例

  1. 使用OpenCV的DNN模块
    加载预训练的CNN模型(如Caffe或TensorFlow格式)进行图像分类。

    #include cv::dnn::Net net = cv::dnn::readNetFromCaffe(\"model.prototxt\", \"weights.caffemodel\");cv::Mat blob = cv::dnn::blobFromImage(image, 1.0, cv::Size(224, 224), cv::Scalar(104, 117, 123));net.setInput(blob);cv::Mat prob = net.forward();
  2. TensorFlow C++ API
    构建一个简单的CNN模型并训练MNIST数据集。

    #include tensorflow::Scope root = tensorflow::Scope::NewRootScope();auto input = tensorflow::ops::Placeholder(root, tensorflow::DT_FLOAT);auto conv = tensorflow::ops::Conv2D(root, input, kernel, {1, 1, 1, 1}, \"SAME\");
  3. Armadillo线性代数库
    实现卷积运算的高效矩阵乘法。

    #include arma::mat input = arma::randu(28, 28);arma::mat kernel = arma::randu(3, 3);arma::mat output = arma::conv2(input, kernel, \"same\");

手写数字识别(MNIST)

C++手写数字识别(MNIST)实现步骤

数据预处理

MNIST数据集包含60,000个训练样本和10,000个测试样本,每个样本是28x28的灰度图像。需要将数据加载为C++可处理的格式,通常转换为一维数组或二维向量。

// 示例:读取MNIST二进制文件void load_mnist_images(const std::string& path, std::vector<std::vector>& images) { std::ifstream file(path, std::ios::binary); if (file.is_open()) { int magic_number, num_images, rows, cols; file.read((char*)&magic_number, sizeof(magic_number)); file.read((char*)&num_images, sizeof(num_images)); file.read((char*)&rows, sizeof(rows)); file.read((char*)&cols, sizeof(cols)); magic_number = ntohl(magic_number); num_images = ntohl(num_images); rows = ntohl(rows); cols = ntohl(cols); for (int i = 0; i < num_images; ++i) { std::vector image(rows * cols); for (int j = 0; j < rows * cols; ++j) { unsigned char pixel; file.read((char*)&pixel, sizeof(pixel)); image[j] = static_cast(pixel) / 255.0f; } images.push_back(image); } }}
模型构建

实现一个简单的全连接神经网络或卷积神经网络(CNN)。以下是一个全连接网络的示例:

class NeuralNetwork {private: std::vector<std::vector> weights; std::vector biases; int input_size, hidden_size, output_size;public: NeuralNetwork(int input, int hidden, int output) : input_size(input), hidden_size(hidden), output_size(output) { // 初始化权重和偏置 weights.resize(2); weights[0].resize(input_size * hidden_size); weights[1].resize(hidden_size * output_size); biases.resize(hidden_size + output_size); // 随机初始化 std::random_device rd; std::mt19937 gen(rd()); std::normal_distribution dist(0.0f, 0.1f); for (auto& w : weights[0]) w = dist(gen); for (auto& w : weights[1]) w = dist(gen); for (auto& b : biases) b = dist(gen); } std::vector forward(const std::vector& input) { std::vector hidden(hidden_size); for (int i = 0; i < hidden_size; ++i) { hidden[i] = biases[i]; for (int j = 0; j < input_size; ++j) { hidden[i] += input[j] * weights[0][j * hidden_size + i]; } hidden[i] = std::max(0.0f, hidden[i]); // ReLU } std::vector output(output_size); for (int i = 0; i < output_size; ++i) { output[i] = biases[hidden_size + i]; for (int j = 0; j < hidden_size; ++j) { output[i] += hidden[j] * weights[1][j * output_size + i]; } output[i] = std::exp(output[i]); // Softmax (需归一化) } float sum = std::accumulate(output.begin(), output.end(), 0.0f); for (auto& val : output) val /= sum; return output; }};
训练与评估

使用反向传播算法和随机梯度下降(SGD)训练模型:

void train(NeuralNetwork& nn, const std::vector<std::vector>& images, const std::vector& labels, int epochs, float lr) { for (int epoch = 0; epoch < epochs; ++epoch) { float loss = 0.0f; for (size_t i = 0; i < images.size(); ++i) { auto output = nn.forward(images[i]); // 计算交叉熵损失 loss += -std::log(output[labels[i]]); // 反向传播(简化版) // 此处省略具体实现 } std::cout << \"Epoch \" << epoch << \", Loss: \" << loss / images.size() << std::endl; }}
示例代码库推荐
  1. tiny-dnn:轻量级C++深度学习库,支持MNIST训练。

    #include using namespace tiny_dnn;void train_mnist() { network net; net << fully_connected_layer(28*28, 100) << activation::relu() << fully_connected_layer(100, 10) << activation::softmax(); adagrad optimizer; std::vector images; std::vector
  2. Armadillo + MLPACK:数值计算库结合机器学习库。

    #include using namespace mlpack::ann;FFN model;model.Add(100);model.Add();model.Add(10);model.Add();
性能优化
  • 使用多线程(OpenMP)加速矩阵运算。
  • 启用SIMD指令(如AVX)优化计算。
  • 利用GPU加速(如CUDA或OpenCL)。

通过以上步骤,可以构建一个基础的C++手写数字识别系统。实际应用中,建议使用成熟的深度学习框架(如TensorFlow C++ API或LibTorch)以提升开发效率。

图像风格迁移

以下是关于C++实现图像风格迁移的30个实例概述及核心方法,涵盖经典算法和现代框架的应用案例。每个例子均提供关键代码片段或技术要点,供参考实现。


基于OpenCV的简单风格迁移

使用OpenCV的滤波器和图像混合实现基础风格迁移效果:

#include void styleTransfer(cv::Mat& src, cv::Mat& style, cv::Mat& dst) { cv::Mat src_gray, style_gray; cv::cvtColor(src, src_gray, cv::COLOR_BGR2GRAY); cv::cvtColor(style, style_gray, cv::COLOR_BGR2GRAY); cv::addWeighted(src, 0.7, style, 0.3, 0, dst);}

基于神经网络的方法(C++接口)

使用LibTorch(PyTorch C++ API)实现快速风格迁移:

#include torch::Tensor transfer(torch::Tensor input, torch::jit::script::Module& model) { std::vector inputs = {input}; return model.forward(inputs).toTensor();}

OpenCV DNN模块加载预训练模型

加载TensorFlow或PyTorch导出的风格迁移模型:

cv::dnn::Net net = cv::dnn::readNetFromTensorflow(\"model.pb\");net.setInput(cv::dnn::blobFromImage(inputImg));cv::Mat output = net.forward();

基于Gram矩阵的风格损失计算

实现风格特征提取的核心数学计算:

cv::Mat gramMatrix(cv::Mat features) { cv::Mat gram; cv::mulTransposed(features, gram, false); return gram / (features.total());}

实时视频风格迁移

结合OpenCV视频捕获和轻量级模型:

cv::VideoCapture cap(0);while (true) { cap >> frame; cv::Mat styled = transferFrame(frame); cv::imshow(\"Live Style Transfer\", styled);}

30个实例分类概览

类型 技术栈 典型应用场景 1-5: 传统方法 OpenCV滤波/混合 实时低功耗设备 6-15: 神经网络 LibTorch/ONNX Runtime 高质量艺术生成 16-20: 视频处理 OpenCV+DNN 实时视频滤镜 21-25: 移动端优化 ARM NEON/TFLite 手机APP集成 26-30: 三维扩展 OpenGL/Vulkan互操作 游戏/VR场景

完整项目参考

  1. FastPhotoStyle:基于C++/CUDA的快速迁移实现
  2. OpenCV contrib samples:dnn_style_transfer示例
  3. TorchScript范例:PyTorch官方C++导出教程

(注:实际开发需根据具体需求选择框架,建议优先测试ONNX格式模型的跨平台部署能力)

目标检测(YOLO Tiny)

C++ YOLO Tiny 目标检测实例

YOLO Tiny 是 YOLO (You Only Look Once) 的轻量级版本,适用于资源受限设备。以下是 C++ 实现 YOLO Tiny 目标检测的 30 个实例,涵盖不同应用场景。

基础实例
  1. 加载 YOLO Tiny 模型

    • 使用 OpenCV 的 DNN 模块加载预训练模型。
    cv::dnn::Net net = cv::dnn::readNet(\"yolov3-tiny.weights\", \"yolov3-tiny.cfg\");
  2. 设置计算后端

    • 使用 CUDA 或 OpenCL 加速推理。
    net.setPreferableBackend(cv::dnn::DNN_BACKEND_CUDA);net.setPreferableTarget(cv::dnn::DNN_TARGET_CUDA);
  3. 图像预处理

    • 将输入图像转换为 Blob 格式。
    cv::Mat blob = cv::dnn::blobFromImage(image, 1/255.0, cv::Size(416, 416), cv::Scalar(0,0,0), true, false);
  4. 执行前向传播

    • 将 Blob 输入网络并获取输出。
    net.setInput(blob);std::vector outputs;net.forward(outputs, net.getUnconnectedOutLayersNames());
  5. 后处理输出

    • 解析检测结果并绘制边界框。
    for (auto& output : outputs) { float* data = (float*)output.data; for (int i = 0; i  confidenceThreshold) { // 绘制边界框 } }}
进阶实例
  1. 实时视频检测

    • 从摄像头捕获视频流并实时检测。
    cv::VideoCapture cap(0);while (true) { cv::Mat frame; cap >> frame; // 检测逻辑 cv::imshow(\"Detection\", frame); if (cv::waitKey(1) == 27) break;}
  2. 多线程处理

    • 使用多线程加速视频处理。
    void processFrame(cv::Mat frame) { // 检测逻辑}std::thread t(processFrame, frame.clone());t.detach();
  3. 自定义对象检测

    • 训练自定义数据集并加载模型。
    cv::dnn::Net net = cv::dnn::readNet(\"custom-yolov3-tiny.weights\", \"custom-yolov3-tiny.cfg\");
  4. 非极大值抑制 (NMS)

    • 过滤重叠的检测框。
    cv::dnn::NMSBoxes(boxes, confidences, confidenceThreshold, nmsThreshold, indices);
  5. 性能优化

    • 调整输入尺寸以提高速度。
    cv::Mat blob = cv::dnn::blobFromImage(image, 1/255.0, cv::Size(320, 320), cv::Scalar(0,0,0), true, false);
应用场景实例
  1. 人脸检测

    • 使用 YOLO Tiny 检测人脸。
    std::vector classes = {\"face\"};
  2. 车辆检测

    • 检测道路上的车辆。
    std::vector classes = {\"car\", \"truck\", \"bus\"};
  3. 行人检测

    • 监控场景中的行人。
    std::vector classes = {\"person\"};
  4. <