管今年世界上发生了这么多事情,我们还是有机会看到很多惊人的研究成果。特别是在人工智能领域。此外,今年还强调了许多重要的方面,比如伦理方面、重要的偏见等等。人工智能以及我们对人类大脑及其与人工智能的联系的理解在不断发展,在不久的将来显示出有前途的应用。
以下是本年度最有趣的研究论文,如果你错过了其中的任何一篇的话。简而言之,它基本上是一个根据发布日期列出的人工智能和数据科学最新突破的列表,配有清晰的视频解释、更深入的文章链接和代码(如果适用的话)。
本文最后列出了每篇论文的完整参考文献。
YOLOv4: Optimal Speed and Accuracy of Object Detection [1]
这第4个版本由Alexey Bochkovsky等人于2020年4月在论文"YOLOv4: Optimal Speed and Accuracy of Object Detection"中介绍。该算法的主要目标是在精度方面做出一个高质量的超高速目标检测器。
DeepFaceDrawing: Deep Generation of Face Images from Sketches [2]
您现在可以使用这种新的图像到图像转换技术,从粗糙甚至不完整的草图生成高质量的人脸图像,无需绘图技巧!如果你的画技和我一样差,你甚至可以调整眼睛、嘴巴和鼻子对最终图像的影响。让我们看看它是否真的有效,以及他们是如何做到的。
Learning to Simulate Dynamic Environments with GameGAN [3]
这项研究由英伟达多伦多AI实验室和日本游戏大厂万代南梦宫 *BANDAI NAMCO) 一同开发,技术来自前者,数据来自后者。
简单来说,仅对简单的游戏录像和玩家输入进行学习,GameGAN 就能够模拟出接近真实游戏的环境,还不需要游戏引擎和底层代码。它的底层是在 AI 领域很有名的生成对抗网络 (GAN)。
PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models [4]
它可以把超低分辨率的16x16图像转换成1080p高清晰度的人脸!你不相信我?然后你就可以像我一样,在不到一分钟的时间里自己试穿一下!
Unsupervised Translation of Programming Languages [5]
这种新模型在没有任何监督的情况下将代码从一种编程语言转换成另一种编程语言!它可以接受一个Python函数并将其转换成c++函数,反之亦然,不需要任何先前的例子!它理解每种语言的语法,因此可以推广到任何编程语言!我们来看看他们是怎么做到的。
PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization [6]
这个人工智能从2D图像生成3D高分辨率的人的重建!它只需要一个单一的图像你生成一个3D头像,看起来就像你,甚至从背后!
High-Resolution Neural Face Swapping for Visual Effects [7]
迪士尼的研究人员在论文中开发了一种新的高分辨率视觉效果人脸交换算法。它能够以百万像素的分辨率渲染照片真实的结果。。它们的目标是在保持actor的性能的同时,从源actor交换目标actor的外观。这是非常具有挑战性的,在很多情况下都是有用的,比如改变角色的年龄,当演员不在的时候,甚至当它涉及到一个对主要演员来说太危险的特技场景。目前的方法需要大量的逐帧动画和专业人员的后期处理。
Swapping Autoencoder for Deep Image Manipulation [8]
这种新技术可以改变任何图片的纹理,同时使用完全无监督的训练保持现实!结果看起来甚至比GANs能实现的还要好,而且速度更快!它甚至可以用来制作深度赝品!
GPT-3: Language Models are Few-Shot Learners [9]
当前最先进的NLP系统很难推广到不同的任务上。 他们需要在成千上万个示例的数据集上进行微调,而人类只需要查看几个示例即可执行新的语言任务。 这是GPT-3的目标,目的是改善语言模型的任务不可知特性。
Learning Joint Spatial-Temporal Transformations for Video Inpainting [10]
与当前的最新技术相比,该AI可以填充移动的物体后面的缺失像素,并以更高的准确性和更少的模糊度重建整个视频!
Image GPT — Generative Pretraining from Pixels [11]
一个好的人工智能,比如Gmail中使用的那个,可以生成连贯的文本并完成你的短语。这是使用相同的原理来完成图像处理! 全部在无监督的训练中完成,根本不需要标签!
Learning to Cartoonize Using White-box Cartoon Representations [12]
该AI可以将您想要的任何图片或视频进行卡通化!
Neural Re-Rendering of Humans from a Single Image [14]
该算法将身体的姿势和形状表示为参数网格,可以从单个图像进行重构并轻松放置。 给定一个人的图像,他们便能够以不同的姿势或从另一个输入图像获得的不同衣服来创建该人的合成图像。
I2L-MeshNet: Image-to-Lixel Prediction Network for Accurate 3D Human Pose and Mesh Estimation from a Single RGB Image [15]
目标是提出一种从单个RGB图像进行3D人体姿势和网格估计的新技术。 他们称其为I2L-MeshNet。 I2L代表"图像到像素"。 就像体素,体积+像素,是三维空间中的量化单元格一样,他们将lixel,线和像素定义为一维空间中的量化单元格。 他们的方法优于以前的方法,并且代码是公开可用的!
Beyond the Nav-Graph: Vision-and-Language Navigation in Continuous Environments [16]
语言导航是一个被广泛研究的领域,也是一个非常复杂的领域。 对于一个人来说,走过一所房子来拿掉您放在床头柜上的咖啡就很简单了。 但这对于AI代理来说是另外一回事了,它是一个使用深度学习执行任务的自主AI驱动的系统。
RAFT: Recurrent All-Pairs Field Transforms for Optical Flow [17]
ECCV 2020最佳论文奖授予普林斯顿大学团队。 他们为光流开发了一种新的端到端可训练模型。 他们的方法超越了跨多个数据集的最新架构的准确性,并且效率更高。
Crowdsampling the Plenoptic Function [18]
利用从互联网上获得的公开照片,他们能够重构旅游场景的多个视点,从而保留逼真的阴影和照明! 这是用于真实感场景渲染的最先进技术的巨大进步,其结果简直令人赞叹。
Old Photo Restoration via Deep Latent Space Translation [19]
想象一下,当您祖母18岁时,她的老照片,折叠甚至撕裂的照片都清晰无瑕,清晰度很高。 这就是所谓的旧照片恢复,本文只是使用深度学习方法开辟了一条全新的途径来解决这一问题。
Neural circuit policies enabling auditable autonomy [20]
来自IST Austria和MIT的研究人员已经成功地使用一种新的人工智能系统训练了自动驾驶汽车,该系统基于细小动物(如线虫)的大脑。 他们实现了这一点,与流行的深度神经网络(如Inceptions,Resnets或VGG)所需的数百万个神经元相比,只有少数神经元能够控制自动驾驶汽车。 他们的网络仅使用75,000个参数(由19个控制神经元而不是数百万个参数)就可以完全控制汽车!
Lifespan Age Transformation Synthesis [21]
来自Adobe Research的一组研究人员仅根据该人的一张照片开发了一种用于年龄转换合成的新技术。 它可以从您发送的任何图片中生成不同年龄的图片。
DeOldify [22]
DeOldify是一种使旧的黑白图像甚至胶片画面着色和还原的技术。 它是由Jason Antic开发的,并且仍在更新中。 现在,这是对黑白图像进行着色的最新技术,并且所有内容都是开源的,但是稍后我们将再次讨论。
COOT: Cooperative Hierarchical Transformer for Video-Text Representation Learning [23]
顾名思义,它使用Transformer将视频及其一般描述作为输入来为视频的每个序列生成准确的文本描述。
Stylized Neural Painting [24]
这种图像到绘画的翻译方法,该使用一种新颖的方法模拟多种样式的真实画家,并且该方法不涉及任何GAN架构,这与所有当前的最新方法不同!
Is a Green Screen Really Necessary for Real-Time Portrait Matting? [25]
人脸消光是一项非常有趣的任务,目标是在图片中找到任何人并从中删除背景。 由于任务的复杂性,必须找到具有完美轮廓的一个或多个人,这确实很难实现。 在本文中,我将回顾这些年来使用的最佳技术以及一种将于2020年11月29日发布的新颖方法。许多技术都在使用基本的计算机视觉算法来完成此任务,例如GrabCut算法,该算法非常快,但不是非常精确
ADA: Training Generative Adversarial Networks with Limited Data [26]
借助NVIDIA开发的这种新的训练方法,您可以使用十分之一的图像训练强大的生成模型! 使许多无法访问太多图像的应用程序成为可能!
Improving Data‐Driven Global Weather Prediction Using Deep Convolutional Neural Networks on a Cubed Sphere [27]
当前的传统天气预报方法使用了我们所谓的"数值天气预报"模型。 它使用大气和海洋的数学模型根据当前条件预测天气。 它于1920年代首次引入,并在1950年代使用计算机模拟产生了逼真的结果。 这些数学模型可用于预测短期和长期预测。 但是它的计算量很大,无法将其预测基于像深度神经网络一样多的数据。 这就是为什么它如此有前途的部分原因。 这些当前的数值天气预报模型已经使用机器学习来改进预报作为后处理工具。 天气预报越来越受到机器学习研究人员的关注,已经产生了很好的效果。
NeRV: Neural Reflectance and Visibility Fields for Relighting and View Synthesis [28]
这种新方法能够生成完整的3维场景,并具有确定场景照明的能力。 与以前的方法相比,所有这些都具有非常有限的计算成本和惊人的结果。
如您所见,这是人工智能领域非常有见地的一年,我很高兴看到2021年会发生什么! 我一定会覆盖最激动人心和有趣的论文,
作者:Louis Bouchard
原文地址 https://github.com/louisfb01/BestAIpaper_2020
最后所有的论文列表在这里:
[1] A. Bochkovskiy, C.-Y. Wang, and H.-Y. M. Liao, Yolov4: Optimal speed and accuracy of object detection, 2020. arXiv:2004.10934 [cs.CV].
[2] S.-Y. Chen, W. Su, L. Gao, S. Xia, and H. Fu, "DeepFaceDrawing: Deep generation of face images from sketches," ACM Transactions on Graphics (Proceedings of ACM SIGGRAPH2020), vol. 39, no. 4, 72:1–72:16, 2020.
[3] S. W. Kim, Y. Zhou, J. Philion, A. Torralba, and S. Fidler, "Learning to Simulate DynamicEnvironments with GameGAN," in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Jun. 2020.
[4] S. Menon, A. Damian, S. Hu, N. Ravi, and C. Rudin, Pulse: Self-supervised photo upsampling via latent space exploration of generative models, 2020. arXiv:2003.03808 [cs.CV].
[5] M.-A. Lachaux, B. Roziere, L. Chanussot, and G. Lample, Unsupervised translation of programming languages, 2020. arXiv:2006.03511 [cs.CL].
[6] S. Saito, T. Simon, J. Saragih, and H. Joo, Pifuhd: Multi-level pixel-aligned implicit function for high-resolution 3d human digitization, 2020. arXiv:2004.00452 [cs.CV].
[7] J. Naruniec, L. Helminger, C. Schroers, and R. Weber, "High-resolution neural face-swapping for visual effects," Computer Graphics Forum, vol. 39, pp. 173–184, Jul. 2020.doi:10.1111/cgf.14062.
[8] T. Park, J.-Y. Zhu, O. Wang, J. Lu, E. Shechtman, A. A. Efros, and R. Zhang,Swappingautoencoder for deep image manipulation, 2020. arXiv:2007.00653 [cs.CV].
[9] T. B. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P.Shyam, G. Sastry, A. Askell, S. Agarwal, A. Herbert-Voss, G. Krueger, T. Henighan, R. Child, A. Ramesh, D. M. Ziegler, J. Wu, C. Winter, C. Hesse, M. Chen, E. Sigler, M. Litwin, S.Gray, B. Chess, J. Clark, C. Berner, S. McCandlish, A. Radford, I. Sutskever, and D. Amodei,"Language models are few-shot learners," 2020. arXiv:2005.14165 [cs.CL].
[10] Y. Zeng, J. Fu, and H. Chao, Learning joint spatial-temporal transformations for video in-painting, 2020. arXiv:2007.10247 [cs.CV].
[11] M. Chen, A. Radford, R. Child, J. Wu, H. Jun, D. Luan, and I. Sutskever, "Generative pretraining from pixels," in Proceedings of the 37th International Conference on Machine Learning, H. D. III and A. Singh, Eds., ser. Proceedings of Machine Learning Research, vol. 119, Virtual: PMLR, 13–18 Jul 2020, pp. 1691–1703. [Online]. Available:http://proceedings.mlr.press/v119/chen20s.html.
[12] Xinrui Wang and Jinze Yu, "Learning to Cartoonize Using White-box Cartoon Representations.", IEEE Conference on Computer Vision and Pattern Recognition, June 2020.
[13] S. Mo, M. Cho, and J. Shin, Freeze the discriminator: A simple baseline for fine-tuning gans,2020. arXiv:2002.10964 [cs.CV].
[14] K. Sarkar, D. Mehta, W. Xu, V. Golyanik, and C. Theobalt, "Neural re-rendering of humans from a single image," in European Conference on Computer Vision (ECCV), 2020.
[15] G. Moon and K. M. Lee, "I2l-meshnet: Image-to-lixel prediction network for accurate 3d human pose and mesh estimation from a single rgb image," in European Conference on ComputerVision (ECCV), 2020
[16] J. Krantz, E. Wijmans, A. Majumdar, D. Batra, and S. Lee, "Beyond the nav-graph: Vision-and-language navigation in continuous environments," 2020. arXiv:2004.02857 [cs.CV].
[17] Z. Teed and J. Deng, Raft: Recurrent all-pairs field transforms for optical flow, 2020. arXiv:2003.12039 [cs.CV].
[18] Z. Li, W. Xian, A. Davis, and N. Snavely, "Crowdsampling the plenoptic function," inProc.European Conference on Computer Vision (ECCV), 2020.
[19] Z. Wan, B. Zhang, D. Chen, P. Zhang, D. Chen, J. Liao, and F. Wen, Old photo restoration via deep latent space translation, 2020. arXiv:2009.07047 [cs.CV].
[20] Lechner, M., Hasani, R., Amini, A. et al. Neural circuit policies enabling auditable autonomy. Nat Mach Intell 2, 642–652 (2020). https://doi.org/10.1038/s42256-020-00237-3
[21] R. Or-El, S. Sengupta, O. Fried, E. Shechtman, and I. Kemelmacher-Shlizerman, "Lifespanage transformation synthesis," in Proceedings of the European Conference on Computer Vision(ECCV), 2020.
[22] Jason Antic, Creator of DeOldify, https://github.com/jantic/DeOldify
[23] S. Ging, M. Zolfaghari, H. Pirsiavash, and T. Brox, "Coot: Cooperative hierarchical trans-former for video-text representation learning," in Conference on Neural Information ProcessingSystems, 2020.
[24] Z. Zou, T. Shi, S. Qiu, Y. Yuan, and Z. Shi, Stylized neural painting, 2020. arXiv:2011.08114[cs.CV].
[25] Z. Ke, K. Li, Y. Zhou, Q. Wu, X. Mao, Q. Yan, and R. W. Lau, "Is a green screen really necessary for real-time portrait matting?" ArXiv, vol. abs/2011.11961, 2020.
[26] T. Karras, M. Aittala, J. Hellsten, S. Laine, J. Lehtinen, and T. Aila, Training generative adversarial networks with limited data, 2020. arXiv:2006.06676 [cs.CV].
[27] J. A. Weyn, D. R. Durran, and R. Caruana, "Improving data-driven global weather prediction using deep convolutional neural networks on a cubed sphere", Journal of Advances in Modeling Earth Systems, vol. 12, no. 9, Sep. 2020, issn: 1942–2466.doi:10.1029/2020ms002109
[28] P. P. Srinivasan, B. Deng, X. Zhang, M. Tancik, B. Mildenhall, and J. T. Barron, "Nerv: Neural reflectance and visibility fields for relighting and view synthesis," in arXiv, 2020.
文是从八个方面来对2018的网页设计的总结,一起来看看~
本文翻译自澳大利亚设计师Rylan Ziesing及其设计团队Rhino Design对2018年网页设计的总结。
渐变色和丰富的色彩,以其自身的美学魅力和强烈的视觉效果,而为设计师所青睐并大量使用。随着此类设计风格需求的日益增长,广阔的色域和渐变色将在2018继续流行下去。
对于移动网络来说,2017年是具有里程碑意义的一年,它的使用量最终超过了桌面浏览量。这也意味着网页设计师将比以往更注重移动设备用户的需求。
(译者注:2017《移动互联网蓝皮书》发布,移动互联网用户达到10.93亿,而PC用户停滞不前。无论用户使用哪种设备,笔记本、智能手机还是Pad,产品页面都应当能够自动切换分辨率、图片尺寸及相关脚本功能等,以适应不同设备;换句话说,页面应该有能力去自动响应用户的设备环境。)
设计一个网站时我们需要考虑诸多因素,如网速、技术能力、用户类型等。从中可以看到,为什么动效和交互式界面,会成为2018网页设计主流趋势中的重要部分,尤其当人们的审美要求越来越高、技术栈越来越先进。
(译者注:技术栈一般来说是指将N种技术互相组合在一起(N>1),作为一个有机的整体来实现某种目的;也可以指掌握这些技术以及配合使用的经验,比方说:LAMP LNMP MEAN都是常见的Web技术栈。这里的栈就是英文stack的意思,即一些东西堆在一起,而非数据结构的栈的意思。)
在数字产品的营销领域,图像的选择是我们遇到过的最有意思的挑战。整个设计团队都会针对这个问题进行讨论,通常最终会归结于以下两种选择:
前者主要强调产品的体验、特性和功能,而后者更突出产品与用户的交互,即产品对人们生活产生的影响。
Material Design是谷歌基于Android系统推出的全新设计语言,一开始可能主要面向移动设备界面,但后来无论是在移动设备还是PC平台,它的流行度和使用量都呈现爆发式增长。
其实Material Design是过去几年扁平化设计趋势的延续,但它并不是单纯的扁平化,而是增加了适当的点缀以增强可用性,这是扁平化设计所不及的。Material Design的根本是可用性,而不是拿掉一切以提升视觉吸引力。
Web推送通知是来自网站的消息,即使当前浏览器没有打开相关页面也会出现。
Web推送通知是一种全新的营销渠道,可用于在没有用户电子邮件或其他联系方式的情况下,与网站访问者重新建立联系。
2015年,谷歌创造了渐进式Web应用程序(Progressive Web Apps, PWA)。
PWA是指可以在任意浏览器上执行的支持互联网的应用程序,它是由服务器端脚本(PHP和ASP)和客户端脚本(JavaScript和HTML)组成。应用最广泛的例子就是在线电子表格(Google Docs)、电子邮件(Gmail)、照片和视频编辑(Pixlr.com)等,这些程序允许用户同时访问相同版本的文档。
有无服务人员是PWA和常规Web应用程序的主要区别,服务人员是PWA背后强大的技术支撑,在服务人员的帮助下,可实现离线模式工作、接收推送消息、更新背景内容等。PWA旨在实现多个平台通用的应用程序。
简单易安装也是Web应用程序与原生应用程序相比的一大优点。此外,开发人员不需要将PWA适配到iOS或Android平台上,由于使用网络技术,PWA可跨平台工作。
以会话为导向的营销和销售平台,将企业与客户实时联系起来。这使得我们可以进一步开展创意营销,开拓全新的营销方式,以更好地达到预期目标。
本文作者是从国外Web设计角度出发,和国内的视角还是有一些区别,但其中的很多概念还是可以借鉴的。渐变色、响应式设计、动效都是最近几年的热门词,其中的渐进式Web应用程序是我第一次了解这个概念,相信未来国内的开发人员会在此方面有所建树。
原文标题:《Web design in 2018》
原文链接:https://www.behance.net/gallery/60586377/Web-Design-Trends-2018
本文由 @UImax 翻译发布于人人都是产品经理。未经许可,禁止转载
题图来自Unsplash,基于CC0协议
对海量的文献信息我们往往会感觉无从下手,更不用提阅读外文文献了。但是阅读外文文献对于把握最新科研动态,扩充自己的知识是非常有必要的,下面给大家分享一些阅读外文文献的经验。不一定完全正确,仅作参考。
如何有针对性地查找文献
现在各大学图书馆里的数据库都比较全,即使不全也可以通过网络上多种手段获取文献了。所以说文献的获取不是问题,问题在于查什么样的文献?
①本领域核心期刊的文献。不同的研究方向有不同的核心期刊,这里也不能一概唯IF论了。当然,首先你要了解所研究领域的核心期刊有哪些,这个就要靠学长、老板或者网上战友的互相帮助了。
②本领域牛人或主要课题组的文献。每个领域内都有几个领军人物,他们所从事的方向往往代表目前的发展主流。因此,阅读这些组里的文献就可以把握目前的研究重点。怎么知道谁是“领军人物”呢?这里提供两个小方法:第一,在ISI里检索本领域的文献,利用refine功能找出论文数量较多的作者或课题组;另一个方法,先要了解本领域有哪些规模较大的国际会议,登陆会议主办方的网站一般都能看到关于会议的invited speaker的名字,作为邀请报告的报告人一般就是了。
③高引用次数的文章。一般来说高引用次数(如果不是靠自引堆上去的话)文章都是比较经典的文章。多读这样的文章,体会作者对文章结构的把握和图表分析的处理,相信可以从中领悟很多东西。
知道了查什么样的文献后,那么具体怎么去查文献?
通过关键词、主题词检索:关键词、主题词一定要选好,这样,才能保证你所要的内容的全面。因为,换个主题词,可以有新的内容出现。
通过检索某个学者:查SCI,知道了某个在这个领域有建树的学者,找他近期发表的文章。
通过参考综述检索:如果有与自己课题相关或有切入点的综述,可以根据相应的参考文献找到那些原始的研究论文。
注意文章的参考价值:刊物的影响因子、文章的被引次数能反映文章的参考价值。但要注意引用这篇文章的其它文章是如何评价这篇文章的。
如何对下载的文献进行分类整理
关于文献的整理,很多时候大家下文献都是很盲目的,抱着一种先下载下来再说的心态。往往下载的文献不少,但只是空占着磁盘空间。不经过整理归类的文献就不是自己的文献,那根据什么来分类呢?
对于拥有大量未读文献的这里有个简单方法,只关心三点:
①文章前言的最后一部分(一般这部分给出作者为什么要进行这项工作,依据和方法)
②文章的图表(提出采用的表征方法)
③结论(是否实现了既定目标以及是否需要改进)
当然,对所有的未读文献全部精读相信工作量也不小,尽可能用50字左右来归纳文章(包括文章的目的+表征手段+主要结论)。当你按照这个方法归纳整理几十篇文献后,自然会有一个大致的了解,而后再根据你的笔记将文献分类整理,当你在写论文需要解释引用时再回头精读,我觉得这样会提高效率不少。
在归类时,重要文献可以根据重要程度在文件名前加001,002,003编号,然后按名称排列图标,最重要的文献就排在最前了,而且重要文献要注意追踪。
当然分类的标准还有其他,例如根据中文/英文、综述/研究论文等。
如何阅读科技文献
① 明确文献的阅读目的
读文献有不同的读法,但最重要的是自己总结概括这篇文献到底说了什么,否则就是白读。文献整理分类的时候实际就已经概括了各文献。下面介绍的是几种不同目的的文献读法?
读文献有不同的读法,但最重要的是自己总结概括这篇文献到底说了什么,否则就是白读。文献整理分类的时候实际就已经概括了各文献。下面介绍的是几种不同目的的文献读法?
目的1. 回顾重要内容的读法——take home message
每次读完文献(不管是精读还是泛读),合上文献后,想想看,文章最重要的take-home message是什么,如果不知道,就从abstract,conclusion里找,并且最好从discuss里确认一下。这样一来,一篇文章就过关了。Take home message其实都不会很多,基本上是一些concepts,如果你发现你需要记得很多,那往往是没有抓到重点。
目的2.扩充知识面的读法——introduction
重点读introduction,看人家提出的问题,以及目前的进展。类似的文章(Reference中),每天读一两篇,一个月内就基本上对这个领域的某个方向有个大概的了解。当然,读好的review也行,但这样容易使人变得懒惰。
目的3.写文章的读法——discussion
读文章的时候,尤其是看discussion的时候,觉到好的英文句型,最好有意识的记一下,看一下作者是谁,哪篇文章,哪个期刊,这样以后“照猫画虎”写的时候,效率高些。比自己在那里半天琢磨出一个句子强的多。当然,读的多,写得多,你需要记的句型就越少。其实很简单,有意识的去总结和记亿,就不容易忘记。
② 根据文献的类型来确定阅读顺序
对于一个以前没有接触的陌生领域看文献的方式是先看中文综述,然后是中文博士论文,而后是英文综述,最后是英文期刊文献。
先读综述,可以更好地认识课题,知道已经做出什么,还有什么问题没有解决,自己要做什么。对于国内文献一般批评的声音很多。但它是你迅速了解你的研究领域的入口,在此之后,你再看外文文献会比一开始直接看外文文献理解得快得多。而国外的综述多为本学科的资深人士撰写,涉及范围广,可以让人事半功倍。通过中文综述,你可以首先了解这行的基本名词,基本参量和常用的制备、表征方法。我觉得这点很重要,因为如果直接英文上手的话,一些基本名词如果简单的想当然的翻译,往往会将你引入误区或造成歧义。同时中文综述里要包含了大量的英文参考文献,这就为后续的查找文献打下一个基础。
中文博士论文,特别是最近几年的,其第一章前言或是绪论所包含的信息量往往大于一篇综述的。因为它会更加详细地介绍该领域的背景以及相关理论知识,同时里面往往会提到国内外在本领域做得比较好的几个科研小组的相关研究方向。通过阅读就可以更清楚理清一个脉络。
英文综述,特别是那种invited paper或是发表在高IF期刊上的,往往都是本领域的大家写的。对此要精读,要分析其文章的构架,特别要关注作者对各个方向的优缺点的评价以及对缺点的改进和展望。通过精读一篇好的英文综述,所获得的不只是对本领域现在发展状况的了解,同时也可以学会很多地道的英文表达。
③ 阅读文献中各个部分
注重摘要:摘要可以说是一个论文的窗口。多数文章看摘要,少数文章看全文。真正有用的全文并不多,过分追求全文是浪费,不可走极端。当然只看摘要也是不对的。多数文章题目、摘要简单浏览后,直接把几个Figure及Title与legend一看,一般能掌握大部分。
通读全文:读第一遍的时候一定要认真,争取明白每句的大意,能不查字典最好先不查字典。因为读论文的目的并不是学英语,而是获取信息,查了字典以后思维会变得混乱,往往读完全文不知所谓。可以在读的过程中将生字标记,待通读全文后再查找其意思。
归纳总结:较长的文章,容易遗忘。好在虽然论文的句子都长,但每段的句数并不多,可以每一段用一个词组标一个标题。
确立句子的架构,抓住主题:读英文原版文献有窍门的。我们每个单词都认识读完了却不知他在说什么,这是最大的问题。在阅读的时候一定要看到大量的关系连词,他们承上启下引领了全文。读每一段落都要找到他的主题,往往是很容易的,大量的无用信息可以一带而过,节约你大量的宝贵时间和精力。
增加阅读量:由于刚刚接触这一领域,对许多问题还没有什么概念,读起来十分吃力,许多内容也读不懂。后来随着阅读量的增加,最后可以融会贯通。所以,对新手而言,应当重视阅读文献的数量,积累多了,自然就由量变发展为质变了。
④ 文献阅读的一些建议
先找5篇跟自己论文最相关的外文文章看。花一个月的时间认认真真地看,反复看,要求全部读懂,不懂的地方可以和同学和老师交流一下。从中理解文章中回答什么问题,通过哪些技术手段来证明,有哪些结论? 从这些文章中,了解研究思路,逻辑推论,学习技术方法。一个月以后你已经上路了。
把下载的论文打印出来。把论文根据与自己课题的相关性分三类:一类要精读,二类要泛读,三类要选择性的读,分别装订在一起。
看过的文献要温习。看完的文献千万不要丢在一边不管,3-4个月一定要温习一遍,可以根据需要,对比自己的试验结果来看。
做好笔记和标记。重要的结论,经典的句子,精巧的试验方案一定要记下来,供参考和学习。复印或打印的文献,直接用笔标记或批注。pdf 或html格式的文献,可以用编辑器标亮或改变文字颜色。这是避免时间浪费的又一重要手段,否则等于没看。
有些试验方法相同、结论不同的文献,可以批判性的阅读。我想如果是你自己做试验多的话,你应该有这个能力判断谁的更对一点。出现试验方法相同,结论不同的原因有下:试验方法描述不详细,可能方法有差别;试验条件不一样;某些作者夸大结果,瞎编数据。
集中时间看文献。看文献的时间越分散,浪费时间越多。集中时间看更容易联系起来,形成整体印象。
如何提高英语科研的写作能力
英文文章的写作是文献阅读的副产品,平时阅读文献,注意总结常用句型和常用短语(注意,文献作者最好是以英语为母语者,文献内容要与你的专业有关),然后找3-5篇技术路线和统计方法与你的课题接近的文章,精读。
① 要写好科研论文,必须先养成阅读英文文章的习惯,争取每天30~60分钟。刚开始可以选择以读英文报纸、英文新闻为主,逐渐转为读专业杂志。
② 写科研论文,最重要的是逻辑。逻辑的形成来自于对实验数据的总体分析。必须先讨论出一套清晰的思路,然后按照思路来做图表(Figures),最后才执笔。
③ 具体写作时,先按照思路(即Figures)写一个以subheading(小标题)为主的框架,然后开始具体写作。第一稿,切忌追求每一句话的完美,更不要追求词语的华丽,而主要留心逻辑(logic flow),注意前后句的逻辑关系、相邻两段的逻辑关系。写作时,全力以赴,尽可能不受外界事情干扰(关闭手机、座机),争取在最短时间内拿出第一稿。还要注意:一句话不可太长。
④ 学会照葫芦画瓢。没有人天生会写优秀的科研论文,都是从别人那里学来的。学习别人的文章要注意专业领域的不同,有些领域有它内在的写作规律。在向别人学习时,切忌抄袭。在美国一些机构,连续7个英文单词在一起和别人的完全一样,原则上就被认为抄袭(plagiarism)。
⑤ 第一稿写完后,给自己不要超过一天的休息时间,开始修改第二稿。修改时,还是以逻辑为主,但对每一句话都要推敲一下,对abstract和正文中的关键语句要字斟句酌。科研文章里的一些话是定式,比如“To investigate the mechanism of……,we performed……”(为了探索……的机制,我们做了……),“These results support the former,but not the latter,hypothesis……”(这些结果支持了前面的观点,而不是后面的,假设……),“Despite recent progress,how……remains to be elucidated……”(尽管最近的进展,如何阐明……)等等。用两次以后,就逐渐学会灵活运用了。学会用“Thesaurus”(同义词替换)以避免过多重复。第二稿的修改极为关键,再往后就不会大改了。
⑥ 第二稿以后的修改,主要注重具体的字句,不会改变整体逻辑了。投稿前,一定要整体读一遍,对个别词句略作改动。记住:学术期刊一般不会因为具体的语法错误而拒绝一篇文章,但一定会因为逻辑混乱而拒绝一篇文章。
发表论文是一件值得高兴的事情,但要明白:论文只是一个载体,是为了向同行们宣告你的科研发现,是科学领域交流的重要工具。所以,在科研论文写作时,一定要谨记于心的就是:用最简单的话表达最明白的意思,但一定要逻辑严谨!其实,中文和英文论文皆如此!
*请认真填写需求信息,我们会在24小时内与您取得联系。