多个线程或进程并发写同一文件易导致数据错乱,需用对应锁机制:线程用threading.Lock保护共享文件对象并flush;进程用multiprocessing.Lock、flock或分文件写入;异步写入需通过线程池配合asyncio.Lock;推荐临时文件+os.replace实现原子更新。
多个线程或进程同时向同一个文件写入内容时,容易出现数据错乱、覆盖或丢失。Python中需借助锁机制协调访问,确保写入操作的原子性和顺序性。核心在于:区分线程内并发(用 threading.Lock)和跨进程并发(用 multiprocessing.Lock 或文件级锁如 flock),且不能共用同一把锁对象。
当多个线程共享一个文件对象(如全局 open 的句柄)时,必须在每次 write 前加锁、写完后释放。注意:锁要定义在所有线程可访问的作用域(如模块级或传入线程函数),且避免在 with open() 内部直接加锁——因为文件可能被反复打开关闭,锁无法保护“打开→写入→关闭”整个流程。
open + write → 可能覆盖;安全:单个文件对象 + 全局 Lock + write + flushflush() 确保立即落盘,尤其在锁释放前多进程无法共享普通 Python 对象(包括 threading.Lock 和 file 对象),所以不能复用线程方案。常见可靠做法有三种:
multiprocessing.Lock 协调各进程对同一文件的写入(需确保所有进程使用同一个 Lock 实例,通常通过 Manager 或父子进程继承)os.open() + flock()(Unix/Linux/macOS),通过系统级文件锁控制,更底层也更健壮asyncio 中不能直接 await 普通文件 write(它是同步阻塞操作)。正确做法是将写入委托给线程池执行,并在回调或任务中处理结果。此时若仍需互斥,应在提交到线程池前用 asyncio.Lock 控制协程间的“提交顺序”,而非保护 write 本身。
loop.run_in_executor(None, lambda: f.write(data)) 是常用模式asyncio.Lock 包裹 executor 提交逻辑即使加了锁,程序崩溃仍可能导致文件损坏。更稳健的方式是:先写入临时文件(tempfile.NamedTemporaryFile 或 tempfile.mktemp),再用 os.replace() 原子替换原文件。该操作在大多数系统上是不可中断的,能防止写到一半中断导致脏数据。
os.replace(temp_path, final_path) 比 shutil.move() 更适合此场景