圣路易斯华盛顿大学麦克尔比工程学院的研究人员开发出了一种机器学习算法,可以从二维图像的一部分创建连续的细胞3D模型。 这些图像是使用实验室的同一标准显微镜工具拍摄的。
他们的发现于9月16日发表在《自然机器智能》杂志上。
电气系统工程计算机科学工程助理教授Ulugbek Kamilov说:“通过数字图像集训练模型以获得连续的显示。” 现在,我可以用我想要的方式表示它。 我可以顺利放大,没有像素化。 ”
这项工作的关键是使用神经现场网络。 这是一个特殊的机器学习系统,学习从空间坐标到相应物理量的映射。 训练完成后,研究人员可以指向任意坐标,模型可以提供该位置的图像值。
神经网络的一个特别优点是不需要训练大量的类似数据。 相反,如果每个样本具有足够数量的2D图像,则网络可以完全表示样本的内部和外部。
训练网络中使用的图像与其他显微镜图像相同。 本质上,细胞从下面发光; 光穿过它,在另一侧被捕捉,形成一个图像。
卡米洛夫说。 “我有细胞的视图,所以可以用这些图像训练模型。 ”这是通过在样本中的某一点输入模型信息实现的,在这一点上细胞的内部结构被图像捕捉到。
之后,网络将尽最大努力重建结构。 如果输出错误,请调整网络。 如果这是正确的,这条路径将得到加强。 如果预测值与实际测量值一致,则可以用网络填充在原始2D图像中无法捕捉到的单元部分。
此模型现在包含细胞完整、连续表示的信息——。 这是一个不需要存储大量数据的图像文件,因为它总是可以通过神经现场网络重新创建。
卡米洛夫说,模型容易保存,不仅是细胞的真实表现,而且在许多方面比真实更有用。
“可以输入任意坐标生成视图,”他说。 “或者我可以从不同的角度生成全新的视图。 ”他可以用这个模型把单元格旋转成上面的形状,放大后更好地观察; 使用此模型完成其他数值任务,然后输入其他算法。